Quantcast
Channel: Blog Avell
Viewing all 229 articles
Browse latest View live

Entenda como funcionam os benchmarks de GPU (parte 1)

$
0
0

Programas de benchmarks de GPU são excelentes ferramentas para medir o potencial de um notebook. Além de, claro, verificar a integridade dos componentes, em especial a estabilidade de possíveis overclocks. Por fim, conseguem mostrar possíveis gargalos no sistema, de lentidão excessiva de um componente específico até uma temperatura de trabalho perigosa. Ou seja, vão além de mostrar o poder de fogo bruto do sistema, e hoje vamos entender como eles funcionam na medição do potencial gráfico da máquina.

Conhecendo sua GPU

Grande parte dos notebooks que trazem GPUs de alto desempenho também conta com gráficos integrados, que “mandam” no display. Ainda que estas não sejam tão fracas como há alguns anos, estão longe de oferecer o desempenho de uma placa de vídeo dedicada. Mas cumprem um papel importante: preservar bateria quando não há necessidade de tanto desempenho e manter o computador frio em tarefas cotidianas, como navegar na internet e editar textos. No caso do Avell Titanium G1513 IRON V4 que temos em mãos, temos uma Intel HD 630:

benchmarks

Intel HD 630

Por ser integrada ao processador, a Intel HD 630 compartilha a memória RAM do sistema. No caso, parte dos 16 GB DDR4 rodando a 2133 MHz. Possui 24 shaders com frequência máxima de 1150 MHz. Pouco, não? Sim, pois a estrela do show aqui é a NVIDIA GeForce GTX 1050, que entra em ação automaticamente na hora de rodar um jogo mais exigente:

benchmarks NVIDIA GeForce GTX 1050

NVIDIA GeForce GTX 1050

Assim como acontece com os chips mais potentes da NVIDIA, não há diferenciação entre desktop e notebook na GTX 1050, o mesmo valendo para a GTX 1050 Ti. Mesmo sendo a GPU mais básica da série 10 da NVIDIA, as diferenças são gritantes: 640 shaders rodando a 1354 MHz, alcançando 1493 em modo Boost. Além disso, tem 4 GB de memória GDDR5 dedicada, rodando a 3504 MHz. Os dados mostrados já são um bom ponto de partida para comparar GPUs de uma mesma geração, mas vamos qual é o potencial dessa GPU na prática.

UNIGINE Heaven

Baseado na versão mais atual da UNIGINE Engine (versão 4.0, no caso), o Heaven coloca a GPU para trabalhar em renderizações muito próximas das presentes em games. Basta escolher a resolução e ajustar alguns filtros e efeitos para observar a capacidade da placa de vídeo em renderizar diferentes cenários. De forma gratuita, é possível medir o desempenho não somente da resolução esperada em si, mas também de iluminação, movimentação de diversos objetos e tesselation em DirectX 9, DirectX 11 e OpenGL 4.0.

Resultado do Heaven 4.0, benchmark gratuito da UNIGINE

Resultado do Heaven 4.0, benchmark gratuito da UNIGINE

Testamos a GTX 1050 em Full HD (1920 x 1080, resolução nativa do Titanium G1513 IRON V4) no modo Ultra, tesselation no Extreme e 4x AA. O resultado foi um FPS médio de 33,3 (máximo de 83,8) e temperaturas máximas de 70 ºC, sem um problema de estabilidade sequer.

UNIGINE Valley

Também projetado pela UNIGINE, o Valley é tão customizável quanto o Heaven, mas trabalha com cenários diferentes. No caso, paisagens maiores e uma enorme quantidade de objetos em movimento de forma simultânea (grama, em especial). Usando os mesmos presets do Heaven (Full HD no modo Ultra, tesselation no Extreme e 4x AA), alcançamos um FPS médio de 41,5 frames por segundo (máximo de 78,2), também sem passar dos 71 ºC.

benchmarks Valley 1.0, também fabricado pela UNIGINE

Valley 1.0, também fabricado pela UNIGINE

De forma igualmente importante, não observamos nenhuma instabilidade do sistema. Mais do que medir a capacidade da GPU de renderizar as cenas, tanto o Valley quanto o Heaven testam a robustez dos componentes. Máquinas com sistemas de refrigeração mais sofisticados se destacam aqui, sendo capazes de trabalhar sob condições pesadas por longos períodos sem alcançar níveis perigosos de temperatura.

FurMark

Os dois testes acima possuem ferramentas próprias de análise de estabilidade. Porém, trabalham focando em renderizar uma cena em especial e medir o desempenho da máquina – de quebra analisando a integridade dos componentes. O FurMark faz o caminho inverso. O objetivo aqui é medir a estabilidade de forma primária, sem se preocupar tanto com a quantidade de frames por segundo que a GPU pode gerar, ainda que seja monitorado.

CINEBENCH R15 OpenGL – GPU Test

Como isso acontece com uma “rosquinha peluda em movimento”? Cada um dos “pelos” é renderizado de forma independente, o que é um trabalho e tanto para a placa de vídeo. Um cenário praticamente inexistente em jogos reais, mas este não é o foco, e sim colocar a máquina para funcionar sob condições verdadeiramente estressantes. O motivo? Colocar a integridade dos componentes e testar o sistema de refrigeração em condições extremas.

benchmarks

Furmark

Em especial, medir se o sistema de refrigeração é capaz e manter a GPU segura por longos períodos, situação típica de um game mais atual. Basta deixar o FurMark rodando por algum tempo. Se a máquina permanecer estável durante o teste, dificilmente apresentará instabilidades em qualquer situação, semelhante ao que acontece com programas como o OCCT.

CINEBENCH R15 (OpenGL)

Diferentemente dos programas de benchmark da UNIGINE, o CINEBENCH avalia o comportamento da máquina em programas profissionais de criação. No caso do teste de GPU, uma perseguição de carros é renderizada em OpenGL usando mais de um milhão de polígonos. Mais do que isso, com efeitos de iluminação, transparência e cenas diferentes são utilizadas para medir a capacidade da placa de vídeo.

CINEBENCH R15 OpenGL - GPU Test benchmarks

O resultado é exibido em quantidade de frames por segundo: quanto maior o número, mais poderosa é a GPU. Com o passar do tempo, é interessante continuar a rodar testes no CINEBENCH, mesmo que o hardware seja o mesmo. Conforme os drivers são atualizados, é possível analisar os ganhos de performance da máquina, já que otimizações ocorrem com frequência por parte da NVIDIA, assim como possíveis bugs são corrigidos.

Conclusão sobre benchmarks

Benchmarks mostram mais do que o desempenho bruto de uma máquina. Capacidade de lidar com filtros e efeitos, estabilidade, consistência e controle de temperatura são igualmente medidos, já que pouco adianta contar com uma máquina potente se ela não é capaz de rodar bem nas mais variadas situações. O Titanium G1513 IRON V4 passou por todos eles sem problemas, além de contar com altíssima estabilidade dentro de uma faixa de temperatura segura. Na segunda parte deste artigo analisaremos ferramentas diferentes, capazes de oferecer relatórios detalhados do potencial da máquina.

Para saber mais:

Fontes: MAXON, UNIGINE 1 e 2, NotebookCheck, TechRadar, Ozone 3D

O post Entenda como funcionam os benchmarks de GPU (parte 1) apareceu primeiro em Notebooks Avell.


Como funcionam os benchmarks de CPU (parte 1)

$
0
0

Exploramos as principais características dos processadores Intel em algumas ocasiões. Para entender como cada CPU é segmentada pela própria empresa, vimos que cada produto possui algumas características marcantes dentro do seu posicionamento. Em seguida, as letras e números de cada CPU, com informações mais detalhadas dos modelos (links ao final). Analisando essas informações, já temos uma excelente ideia do que esperar de uma certa configuração.

Mas como essas características influenciam o desempenho da máquina no mundo real? Vamos continuar usando o Avell Titanium G1513 IRON V4 como exemplo. No caso, ele vem com o Intel Core i7-7700HQ, um dos processadores mais poderosos do mercado para notebooks. Antes de vermos o poder de fogo deste modelo, vamos saber mais sobre ele.

Conhecendo sua CPU

O CPU-Z é um dos programas mais completos para esse propósito, além de ser totalmente gratuito. Logo na aba inicial (CPU) já temos informações bastante importantes. Como podemos ver no screenshot abaixo, o Core i7-7700HQ trabalha com 45 watts. A TDP já mostra o foco deste modelo (desempenho), não sendo recomendada para ultrafinos. Mas esta é a TDP máxima, já que os estágios mais baixos de tensão são bastante baixas (na casa dos 0,66 V). Ou seja, é uma CPU capaz de oferecer um alto nível de desempenho em seus estágios mais potentes. Ao mesmo tempo, consome pouca energia no uso comum da máquina.

benchmarks de CPU

Os caches L1 e L2 são individuais, já o cache L3 é compartilhado entre todos os núcleos e threads.

Temos também informações sobre o clock mínimo do Core i7-7700HQ, por volta dos 800 MHz. Vale destacar que processadores possuem diversos estágios intermediários de energia, não indo “de 0 a 100”, mas sim ajustando seus clocks (e, consequentemente, sua tensões) sob demanda. Como podemos notar, o clock máximo é 2,8 GHz, mas o multiplicador chega até 38. Isso acontece graças ao Turbo Boost, que eleva o clock até 3,8 GHz por períodos limitadas se a máquina estiver bem refrigerada.

Por ser uma melhoria da geração Skylake, não uma arquitetura nova, o Kaby Lake continua usando um processo de fabricação de 14 nanômetros. Apesar disso, consegue manter basicamente as mesmas TDPs, mas oferece clocks maiores com uma eficiência single-core ligeiramente superior. Vamos ver o que isso significa na prática.

Passmark: avalia desempenho de uma CPU

Gratuito por 30 dias, o Passmark mostra como a maioria dos benchmarks avalia o desempenho de uma CPU. Basicamente, mede a eficiência do processador (tanto single-core quanto multi-core) em diversas operações primárias, utilizadas por grande parte dos programas e jogos. Entre elas, cálculos aritméticos e de ponto flutuante, presentes em todas as aplicações e outras mais específicas. Estas incluem a eficiência na hora de comprimir e descomprimir arquivos, organização de dados e encriptação de dados.

benchmarks de CPU

Resultado geral do Passmark, medindo todos os componentes.

passcpu benchmarks CPU

Por fim, temos a medição o SSE, um ponto forte dos processadores da Intel.

Um resultado mais específico para jogos é a capacidade de cálculos físicos (“Physics”), ponto em que tanto a eficiência single-core quanto a quantidade de núcleos ganham destaque. Este resultado, junto com a eficiência single-core medida de forma isolada (“CPU Single Threaded”), diz muito sobre a real potência de um processador. No fim das contas, o Core i7-7700HQ do Avell Titanium G1513 IRON V4 alcançou 9768 pontos, ficando no 86% percentil. É um resultado e tanto, considerando que se trata de uma CPU de notebook, já que os resultados incluem processadores de desktop overclockados de alto desempenho.

CINEBENCH R15

Voltamos ao CINEBENCH, programa também utilizado para medir o desempenho de GPUs. O Teste de CPU é simples de explicar, mas altamente exigente para o processador: medir a performance ao renderizar uma imagem realista 3D de alta resolução. Todos os cores (e threads) são utilizados de forma independente. Ou seja, cada núcleo do Core i7-7700HQ é responsável por duas renderizações simultâneas, graças ao Hyperthreading. Mesmo que uma CPU traga mais núcleos (chegando a um máximo de 256 threads), a eficiência single-core conta, e muito.

cinebench benchmarks de CPU

Fica em quarto, atrás de um processador de desktop com clock maior, uma CPU Extreme Edition da Intel e um Xeon, voltado para servidores e workstations.

Como a renderização de uma “simples imagem” é capaz de medir o desempenho de um processador? É aqui que está o segredo do CINEBENCH. A imagem contém mais de 2000 objetos e 300.000 polígonos no total. Isso com efeitos de reflexões, iluminação realística, antialiasing, entre diversos outros filtros e efeitos. Basicamente, as mesmas operações executadas na CPU durante um jogo, garantindo que o resultado refletirá diretamente em situações reais.

Uma curiosidade de muitos é a classificação de resultados. Como podemos ver, o Core i7-7700HQ “perde” para um Core i7-4770K (quarta geração, Haswell). Porém, mesmo com os números de cores e threads serem os mesmos, temos que levar o clock de cada um em consideração. A comparação é de um processador de notebook rodando a 2,8 GHz, contra outro de desktop (desbloqueado, aliás) rodando a 4,4 GHz, lembrando que são os clocks stock, sem levar o Turbo Boost em consideração (assim como possíveis overclocks doCore i7-4770K).

Os primeiros colocados da lista incluem o Core i7-3930K (famílias Extreme) com 12 threads e um Xeon X5650 (voltado para workstations e servidores) com 24 threads. Ou seja, mesmo com as limitações de TDP do Core i7-7700HQ, uma CPU de notebooks, ele ficou na quarta posição, sem nenhum equivalente de notebook sequer concorrendo diretamente com ele. Nada mal, não?

Conclusão

Um processador com uma ficha técnica respeitável pouco vale se isso não se traduz em desempenho bruto na prática. Mais do que mostrar como essas características funcionam na prática, os benchmarks são excelentes ferramentas de como as especificações técnicas podem ser medidas de forma transparente. Além disso, coloca diversas CPUs lado a lado de acordo com os resultados apresentados, permitindo que a variação de clocks, quantidade de núcleos, recursos internos e diferentes gerações podem apresentar no mundo real.

Escolhemos o Passmark e o CINEBENCH R15 com esse objetivo. Mostrar o desempenho bruto, medindo a capacidade do Core i7-7700HQ de lidar com as principais operações internas por trás da grande maioria dos programas e jogos que executamos no PC. Naturalmente, componentes terceiros influenciam no resultado, como a quantidade e velocidade da memória RAM (assim como a quantidade de canais. No caso, DDR4 em dois canais rodando a 2133 MHz), Mas, mantendo essas condições constantes, é interessante ver como dois processadores se comportam em diferentes situações.

Na segunda parte deste artigo vamos usar os dados deste artigo e aplicá-los em benchmarks reais, apontando as particularidades dos recursos internos. Não deixe de conferir!

Para saber mais:

Fontes: Intel ARK, MAXON CINEBENCH R15, Passmark, CPUID

O post Como funcionam os benchmarks de CPU (parte 1) apareceu primeiro em Notebooks Avell.

Entenda como funcionam os benchmarks de GPU (parte 2)

$
0
0

A primeira parte deste artigo foi dedicada a alguns benchmarks de GPU específicos. Dois deles utilizam a engine da UNIGINE, focada em renderizações diferentes. Também testamos a estabilidade da configuração com o FurMark, garantindo que a máquina não sofra com superaquecimentos, e colocamos a GTX 1050 para trabalhar em aplicações profissionais com o CINEBENCH R15. Mais importante ainda: mostramos como conhecer mais sobre a(s) placa(s) de vídeo, dando uma boa ideia do que esperar com base nas especificações.

Esta segunda parte do texto sobre os benchmarks de GPU focará em quatro benchmarks, todos fabricados pela Futuremark. Todos eles são reconhecidos internacionalmente, não raro sendo os padrões da indústria de testes de produtos. O motivo? Cada um oferece um relatório detalhado das análises feitas, mostrando os pontos fortes de cada configuração, ao mesmo tempo em que permite identificar possíveis gargalos de sistema.

3DMark: teste para placas de vídeo

Suíte mais recente da Futuremark para testes de placas de vídeo, o foco do 3DMark é o DirectX 12, voltado para máquinas com Windows 10. As novidades do DirectX 12 merecem um artigo dedicado, tanto pelas inovações de baixo nível, com otimizações que aproximam mais o software do hardware, quanto pela computação assíncrona. Um dos grandes diferenciais, por exemplo, é poder usar duas placas de vídeo diferentes, distribuindo a carga de trabalho entre ambas.

O DirectX 12 é testado no 3DMark Time Spy. Mesmo máquinas de alto desempenho costumam penar para rodá-lo, já que os testes realmente focam em colocar a CPU e a GPU para trabalharem com o máximo de capacidade. Como é comum em suítes da Futuremark, há testes exclusivos para a GPU, outros focados em CPU, finalizando com um teste combinado.

3dmark benchmarks de gpu

Alcançando 1920 pontos, podemos ver que o Intel Core i7-7700HQ de nosso Avell Titanium G1513 IRON V4 se saiu um pouco melhor nos testes isolados (proporcionalmente) do que a NVIDIA GeForce GTX 1050. Na média, a CPU manteve 14,12 frames por segundo, enquanto a GPU alcançou entre 10 e 11 fps. Não é um mal resultado, já que o teste em si é altamente exigente, sendo exatamente o foco do Time Spy.

3dmark firestrike gpu

No Fire Strike, que usa o DirectX 11 e foca em máquina de alto desempenho, o Titanium G1513 IRON V4 se saiu um pouco melhor. Novamente percebemos que a CPU é proporcionalmente mais poderosa do que a GPU, com uma taxa de frames por segundo próxima a 30, um resultado e tanto. Isso na configuração básica, já que a versão paga do 3DMark desbloqueia o Fire Strike em condições extremas. Naturalmente, o Titanium G1513 IRON V4 alcançaria resultados menores, já que vem com uma configuração otimizada para jogos em 1080p, resolução nativa da tela.

3dmark sky diver benchmarks de gpu

Em seguida temos o Sky Diver, teste que também utiliza o DirectX 11 e testa a máquina em games médios. O Titanium G1513 IRON V4 brilha tanto nos testes de GPU e CPU quanto nos testes combinados, mostrando que é capaz de aguentar praticamente qualquer game em 1080p com filtros e efeitos entre medium e high. Mesmo nos testes físicos com 96 threads (lembrando que o Core i7-7700HQ trabalha com 8 threads), o fps ficou acima de 33, e este é o teste mais exigente dentro do Sky Diver.

3dmark cloud gate benchmarks de gpu

Por fim, temos o Cloud Gate, um teste que rodamos como uma espécie de “curiosidade” no Titanium G1513 IRON V4. Focado em games menos exigentes, a GTX 1050 chegou a alcançar até 180 frames por segundo (Graphic Test 2), mal fazendo ruído durante a execução. Também projetado para o DirectX 11, o Cloud Gate também funciona em máquinas limitadas ao DirectX 10, exatamente pelo foco em jogos de entrada. Grande parte das máquinas atuais consegue bons resultados neste teste, ainda que a exigência de CPU seja alta.

3DMark 11

3dmark 11 x

GT: Graphics Test – PT: Physics Test – CT: Combined Test

Programa um pouco mais antigo que o 3DMark, o 3DMark 11, como o nome indica, também foca em DirectX 11. Ele ainda é mantido pela Futuremark, e exige muito mesmo de uma configuração mais moderna. O setup Extreme, que coloca todos os filtros e efeitos no máximo na resolução Full HD, é um desafio para qualquer configuração. Neste teste, somente o processador chegou perto de 30 fps no teste individual. Novamente lembramos que ele foi projetado exatamente para isso. Ou seja: o resultado de 2803 pontos abaixo garante que boa parte dos jogos em 1080p rode sem grandes problemas, mesmo com filtros e efeitos no high.

VRMark

Como saber se uma máquina está pronta para jogos em Realidade Virtual? Afinal, as exigências são maiores do que as de um game típico, e o VRMark mede exatamente isso. O primeiro teste, Orange Room, testa a capacidade da máquina de rodar aplicações do Oculus Rift e do HTC Vive, simulando exatamente a qualidade necessária para uma boa experiência.

vrmark teste realidade virtual

Há um segundo teste (pago), o Blue Room. Ele foi projetado para testar máquinas de altíssimo desempenho, com aplicações VR altamente exigentes.

Uma taxa de frames por segundo acima de 60 é uma boa garantia de que a configuração em questão está pronta para esses dois dispositivos, e o Titanium G1513 IRON V4 não enfrentou problemas neste teste. O que é um excelente indicativo, já que a GTX 1050 é a mais básica da série 10 da NVIDIA.

Conclusão

Testamos diferentes engines para mostrar como uma mesma configuração se comporta em cada uma delas. Games com DirectX 12 estão se tornando cada vez mais comuns, mas grande parte dos jogos suporta diferentes versões de uma mesma engine. É o caso, por exemplo, do Sid Meier’s Civilization V, comumente carregado em Direct3D 11, mas também compatível com DirectX 9 no Windows. Posteriormente, passou a suportar o Mantle, API proprietária da AMD. No Mac OS e no Linux roda nativamente em OpenGL, que testamos na primeira parte deste artigo com o CINEBENCH R15.

Outro exemplo é o Euro Truck 2, que roda tanto em DirectX quanto em OpenGL, cada uma das versões com qualidades e níveis de desempenho diferentes. Observar o resultado dos benchmarks permite uma melhor escolha de engines por parte do usuário com uma certa configuração, em especial quando alguns componentes são proporcionalmente mais poderosos do que outros. No fim das contas, vimos, na prática, o potencial real da configuração do Titanium G1513 IRON V4, e o resultado é excelente.

Fontes: Futuremark 3DMark, Futuremark VRMark, Blog Euro Truck 2, Sid Meier’s Civilization V, Steam

O post Entenda como funcionam os benchmarks de GPU (parte 2) apareceu primeiro em Notebooks Avell.

Unboxing – Titanium G1555 IRON [GTX 1060]

$
0
0

Unboxing do notebook gamer Avell Titanium G1555 IRON com placa de vídeo GeForce GTX 1060 com 6GB de memória dedicada.

Segue abaixo as especificações:
MODELO: TITANIUM G1555 IRON
PLACA DE VÍDEO: NVIDIA GEFORCE GTX 1060 GPU (6GB DEDICADO)
PROCESSADOR: INTEL® CORE I7 SKYLAKE – 6700HQ 2.6 GHZ, 6MB CACHE (3.50 GHZ COM MAX TURBO)
MEMÓRIA: 16GB MEMÓRIA DDR4 (2133 MHZ)
ARMAZENAMENTO: SSHD 1 TB COM 8GB SSD
TELA (LCD): 15.6″ IPS FULLHD (1920 X 1080P) 16:9 LED-BACKLIT – (MATTE)
WIRELESS: INTEL® DUAL BAND WIRELESS-AC 7265 + BLUETOOTH
GARANTIA DE 3 ANOS EM MÃO DE OBRA E DE 1 ANO EM PEÇAS.

Por: Karine Souza

CLIQUE AQUI e saiba mais sobre o Titanium G1555 IRON!

O post Unboxing – Titanium G1555 IRON [GTX 1060] apareceu primeiro em Notebooks Avell.

Entenda como funcionam os benchmarks de armazenamento

$
0
0

Dispositivos de armazenamento evoluíram bastante nos últimos tempos, mas ainda são os componentes mais lentos de qualquer máquina moderna. Não raro, configurações com processadores e placas de vídeo de última geração podem se comportar de forma mais lenta do que deveriam. Não por um problema da configuração em si, ou aquecimentos excessivos, mas exatamente pelo armazenamento primário.

SSDs resolvem esse problema em grande parte, apresentando um desempenho consideravelmente superior aos discos rígidos comuns. Este artigo mostrará essa diferença na prática, e vamos usar o Avell Titanium G1513 Iron como exemplo. Saiba como fazer benchmarks de armazenamento.

armazenamento benchmarks

Interior do Titanium G1513 IRON V4: dois slots de memória RAM DDR4, duas entradas SATA M.2 e uma entrada SATA III.

Configuração de armazenamento utilizada

Como mostramos em nosso artigo SSD: Tire todas suas dúvidas e entenda as vantagens, o Avell Titanium G1513 Iron vem com um SSD Sata M.2 primário de 525 GB da Crucial e um SSHD secundário de 1 TB. Para mostramos a diferença entre um SSD e um HD, substituímos o SSHD padrão da Toshiba por um HD de 1 TB. Ou seja, tiramos o diferencial do cache SSD da equação.

slots SATA M.2

Um dos slots SATA M.2 pode ser aproveitado futuramente.

Ao abrirmos o Titanium G1513 Iron, vemos os slots disponíveis para o usuário: 2 slots Sata M.2 (com um deles não utilizado na configuração que testamos) e 1 slot Sata III padrão. Na prática, isso significa que você pode ter até 3 SSDs neste modelo*.

disco de armazenamento

São 4 parafusos prendendo a gaveta e outros 4 prendendo-a no disco.

*Não recomendamos abrir a máquina sem conhecimento especializado, sob o risco de danificar o equipamento ou componentes individuais.

HD e SSHD

O HD e o SSHD são visualmente idênticos, mas o cache SSD, mesmo que pequeno, faz uma enorme diferença no desempenho geral da máquina.

Vamos aos testes!

ATTO Disk Benchmark

Em geral, quando uma empresa de armazenamento estampa as velocidades de transferência na embalagem, há uma grande chance de eles utilizarem o ATTO Benchmark como base. Por ele ser especializado em transferências contínuas de dados, os números costumam ser maiores. É possível medir o desempenho do disco ao transferir dados entre 512 B (0,5 KB) até 64 MB, já que as velocidades (em geral) pouco variam em arquivos maiores.

HD Samsung

HD Samsung

ATTO HD

SSD Crucial

De qualquer forma, o SSD conseguiu manter velocidades de escrita acima de 500 MB/s em arquivos com 64 KB ou mais, enquanto o HD penou para passar de 90 MB/s. Não chega a ser um valor tão fora da média, já que é uma velocidade comum em discos rígidos de notebook, tipicamente rodando a 5400 RPM.

HD Tune Pro

Grande parte dos acessos de dados durante o uso comum usa quantidades relativamente pequenas de dados. Casos como transferir um filme de um drive para outro, com vários gigabytes, são a exceção. Exatamente por isso o resultado de acesso aleatório é tão elucidativo, medida em IOPS (Input/Output Operations Per Second). Neste caso, os HDs comum apanham. E muito!

Acesso aleatório do HD

Acesso aleatório do HD

Como podemos ver acima, o HD manteve uma média de 50 IOPS, enquanto o SSD SATA M.2 da Crucial alcançou até 16440 IOPS. Sim: até 330 vezes mais rápido. Aqui temos uma espécie de “prova numérica” da sensação que muitos usuários experimentam ao trocar um HD por um SSD, mesmo que as velocidades de escrita e leitura contínua não sejam tão diferentes em ordens de grandeza.

SSD

Acesso aleatório do SSD

Enquanto o ATTO Benchmark foca em escrita contínua, o HD Tune possui uma ferramenta extremamente precisa para mensurar acessos aleatórios. Como uma máquina se comporta tipicamente? Basicamente, com uma combinação tanto de um quanto de outro. E é aqui que entra a ferramenta de análise de disco do PCMark 8, como veremos adiante.

PCMark 8

O PCMark 8 é uma ferramenta de benchmark completa, analisando tanto o armazenamento quanto CPU, GPU e memória RAM. O grande diferencial da análise de armazenamento é que ela foca em cenários reais, com programas conhecidos pelo usuário.

  • Games: World of Warcraft, Battlefield 3;
  • Programas de criação: Adobe (Photoshop, Indesign, After Effects e Illustrator);
  • Produtividade: Word, Excel e PowerPoint

Este teste não foca em desempenho bruto propriamente dito, mas sim no que concerne o armazenamento. Algo interessante, já que programas como o After Effects exigem um bom poder de processamento, mas não raro apanham exatamente por sofrer com gargalos ao lidar com arquivos muito grandes, em especial com HDs comuns.

SSD armazenamento

SSD: teste finalizado em cerca de 1 hora e 10 minutos.

Essa precisão, medindo cenários reais, vem com um custo. O teste completo, que roda 3 vezes por uma questão de consistência, dificilmente terminará em menos de 1 hora. O teste com o HD, por exemplo, demorou 4 horas e 20 minutos.

Usar programas reais é mais importante do que parece. Afinal, o uso comum de qualquer máquina, seja navegando na internet ou rodando um game de última geração, é uma combinação completamente aleatória de dados pequenos e grandes. Ou seja, um armazenamento que se destaque apenas em um dos cenários pouco diz sobre a performance real do dia a dia.

HD benchmarks

HD: teste finalizado em cerca de 4 horas e 20 minutos.

Pense em um jogo. Temos o carregamento inicial, com dados alocados na memória RAM da GPU e na memória RAM do sistema, com outros dados lidos sob demanda. Tanto os pequenos quanto uma parte do cenário em um jogo FPS, os conjuntos de dados pequenos e grandes e a leitura de uma nova fase.

De nada adianta ter uma configuração de ponta, com CPU e GPU de última geração e memória RAM de sobra, se cada elemento demora uma eternidade para carregar, estragando a experiência geral. Inclusive, se tirássemos o SSD padrão do Titanium G1513 Iron e utilizássemos somente o HD que utilizamos nesse teste, acreditem, teríamos uma máquina completamente diferente. Isso com um Core i7-7700HQ, 16 GB e uma placa de vídeo GTX 1050.

Conclusão

Um dos grandes erros cometidos por muitos usuários é focar excessivamente na configuração, deixando o armazenamento em segundo lugar. Vale mais economizar em componentes ligados diretamente ao desempenho, dentro de um orçamento limitado, em favor de um SSD. Ou mesmo um SSHD, com o cache SSD, mesmo que pequeno, favorecendo diretamente o carregamento da máquina e a leitura de programas mais pesados, como um editor profissional de vídeos ou um game de última geração.

Para finalizar, temos abaixo o desempenho de um HD, um SSHD e SSD, respectivamente, para mostramos os níveis de desempenho de cada um.

CrystalDiskMark: HD

CrystalDiskMark: HD

CrystalDiskMark: SSHD

CrystalDiskMark: SSHD

CrystalDiskMark: SSD

CrystalDiskMark: SSD

Para saber mais:

O post Entenda como funcionam os benchmarks de armazenamento apareceu primeiro em Notebooks Avell.

GTX 1050 de notebook: o que dá para jogar com esse chip?

$
0
0

 

“O chip Nvidia GeForce GTX 1050 em notebooks tem uma característica bem interessante: diferente de outras linhas de chips gráficos que usam GPUs diferentes para os modelos mais compactos, o chip GTX 1050 é o mesmo tanto em computadores de mesa quanto os notebooks.

Para testar o desempenho do chip usamos o Avell Titanium G1513 IRON V4, um notebook com bom sistema de resfriamento e com configurações potentes, capazes de extrair muito desempenho do chip GeForce.”

Especificações Avell Titanium G1513 IRON V4
– GPU NVIDIA GeForce GTX 1050 GPU (4GB GDDR5)
– CPU Intel Core i7-7700HQm, geração Kaby Lake
– 16 GB Memória DDR4 (2400 MHz)
– Tela 15.6″ IPS FULLHD 16:9 (1920x1080p) LED-Backlit Matte
– Tamanho: 38.7cm (L) x 26.8cm (P) x 3.64cm (A)
– Peso: 2.70Kg

CLIQUE AQUI e Conheça mais sobre o Titanium G1513 IRON V4!

FONTE: Portal ADRENALINE

O post GTX 1050 de notebook: o que dá para jogar com esse chip? apareceu primeiro em Notebooks Avell.

Avell FullRange G1745 IRON V4 + DISHONORED 2

$
0
0

Experimente o melhor desempenho do game com a potente GeForce 1060 da Nvidia!
GANHE o game DISHONORED 2 na compra de um notebook gamer Avell FULLRANGE G1745 IRON V4.
A promoção é valida para os 10 (DEZ) PRIMEIROS COMPRADORES do produto aqui designado.

COMPRAS REALIZADAS ANTES DA DATA DE 07 DE ABRIL DE 2017 NÃO ESTÃO ELEGÍVEIS A GANHAR O JOGO.

COMO RESGATAR O CÓDIGO

1 – Para resgatar o game, é necessário o preenchimento do formulário com as informações de compra NESTE LINK, informando:

– Nome completo
– Data de nascimento
– Modelo do Notebook
– Número de Série (Serial do Notebook)
– Cópia (Fotos) da Nota Fiscal e (Código de Barras do Notebook Avell) em Formato JPG.;

(ATENÇÃO: SOMENTE SERÃO ACEITAS IMAGENS NO FORMATO JPG, ARQUIVOS COMPACTADOS COMO .ZIP SERÃO BARRADOS PELO SERVIDOR).

2 – Você receberá em seu e-mail informações com um link e demais instruções.

Caso você tenha algum problema para fazer o resgate, entre em contato conosco através do e-mail: promo@avell.com.br.

 

Confira na página seguinte o REGULAMENTO PARA O TERRITÓRIO NACIONAL.

O post Avell FullRange G1745 IRON V4 + DISHONORED 2 apareceu primeiro em Notebooks Avell.

Entenda como funcionam os benchmarks de CPU (parte 2)

$
0
0

Exploramos alguns detalhes do Core i7-7700HQ na primeira parte deste artigo. Atualmente, trata-se de uma das CPUs mais poderosas da Intel para notebooks, uma melhoria da arquitetura Skylake (6ª geração) com o mesmo processo de fabricação da Broadwell (5º geração). O grande diferencial, porém, é praticamente invisível em fichas técnicas: o Speed Shift, uma melhoria do SpeedStep da sexta geração, mas extremamente importante no uso diário. Além de, claro, o suporte nativo a vídeos em 4K e ao Optane, nova solução de armazenamento da própria Intel.

Rodamos dois benchmarks famosos para medir seu desempenho bruto, cada um deles focando em um trabalho específico, para mostrar na prática quais são os recursos dessa nova geração. Nesta segunda parte sobre benchmarks de CPU, vamos usar o PCMark 8 para simular situações reais, operações que executamos diariamente em nossas máquinas. Em seguida, vamos usar o GeekBench, uma das referências do mercado em benchmarks sintéticos, para mostrar qual é o ganho real de desempenho em quatro gerações.

Ferramenta PCMark 8

Um dos grandes diferenciais do PCMark 8 é o seu sistema de parcerias, resultando em uma suíte desenvolvida lado a lado com OEMs. O resultado? Uma ferramenta mais realista e precisa, já que trabalha diretamente com fabricantes. AMD, Intel e NVIDIA estão na lista, mostrando como configurações similares se comportam em diferentes máquinas.

Focaremos em 2 testes: o Creative Test e o Work Test. Não usaremos o Home Test por um motivo claro: ele é voltado para máquinas mais básicas. Certamente não é o caso do Titanium G1513 IRON V4 que temos em mãos, que é perfeitamente capaz de “gabaritar” todas as cargas de trabalho contidas nele.

PCMark 8 Creative Test

PCMark 8 Creative Test

Com a pontuação de 3531, o Creative 3.0 mostra que o Titanium G1513 IRON V4 mostrou não apenas que é capaz de lidar com grande parte dos trabalhos focados em produção e reprodução de conteúdo, como também que a máquina não necessitou usar 100% de seu poder de fogo. O que é analisado? Codificação e decodificação de vídeos (em tempo real ou não), edição de fotos individuais (filtros, ferramentas básicas, efeitos) e em grupo (batch editing) e codificação e decodificação de músicas. Ou seja: grande parte das tarefas que executamos diariamente, além de outras mais voltadas para produtores de conteúdo.

benchmarks de CPU

PCMark 8 Work Test

Em seguida temos o Work test, com a confortável pontuação de 3490. Aqui temos os testes de navegação web (JunglePin e Amazonia), também presentes no Creative test, o mesmo valendo para os testes de chat em vídeo, com resultados similares. Em seguida, os testes de escrita em editores de texto, como o LibreOffice Writer e o Word, e aplicativos de planilhas, como o Calc e o Excel. Naturalmente, ambos são executados com tranquilidade pela configuração que temos em mãos.

Abaixo, temos o relatório completo do comportamento da CPU durante a execução dos testes (as 3 passagens em cada um deles), mostrando a estabilidade do Titanium G1513 IRON V4 no período.

PCMark 8 Creative Test - cpu

PCMark 8 Creative Test – Details

PCMark 8 Work Test

PCMark 8 Work Test – Details

Infelizmente, não pudemos executar os testes da suíte Applications, já que estes exigem que os programas testados estejam presentes na máquina. No caso, as suítes da Adobe e o pacote Office da Microsoft. O PCMark 8 testa esses programas na suíte de armazenamento (que já executamos em um artigo dedicado), mas focando na velocidade de abertura e salvamento dos principais programas de cada suíte.

São resultados esperados, já que, como dissemos, o Core i7-7700HQ é um dos processadores de notebooks mais poderosos atualmente.

GeekBench 4

Atualmente na quarta versão, o GeekBench é outro programa utilizado como referência de medição de desempenho de CPU. Tanto para computadores (x86) quanto para smartphones (ARM, em sua maioria), permitindo uma comparação até bastante precisa entre as duas arquiteturas. Aqui vemos o principal diferencial da Intel: eficiência single-core, ponto de destaque em relação ao Bulldozer da AMD, cravando 4536 pontos, um dos maiores entre as CPUs atuais.

GeekBench 4 desempenho cpu

Intel Core i7-7700HQ – GeekBench 4

O que é testado? Tudo: criptografia (AES, LZMA), compiladores (LLVM), compressão e descompressão de imagens (JPEG), HTML5, codificação de vídeos, renderização de PDF, entre diversos outros testes. Basicamente, a grande maioria das operações diárias de uma máquina convencional, mesmo que muitas vezes não nos demos conta. Vale destacar a influência de uma memória RAM mais rápida aqui (DDR4 rodando a 2133 MHz), já que o resultado final seria perceptivelmente diferente se a mesma configuração utilizasse, por exemplo, uma memória DDR3 de 1600 MHz.

GeekBench 4 - Single-Core Details

Intel Core i7-7700HQ – GeekBench 4 – Single-Core Details

GeekBench 4 - Multi-Core Details

Intel Core i7-7700HQ – GeekBench 4 – Multi-Core Details

Utilizando a mesma versão do GeekBench, qual será o ganho de eficiência dos processadores da Intel com o passar das gerações? Para vermos isso, vamos comparar o Core i7-7700HQ com um Core i5-3230M. Sim, estamos comparando um Core i5 dual-core contra um Core i7 quad-core, mas o que nos interessa é a eficiência single-core. Há uma diferença nos clocks (2,6 GHz contra 2,8 GHz, base, 3,2 GHz contra 3,8 GHz, Turbo Boost), mas a distribuição de caches por core é constante (L1, L2 e L3).

Intel Core i5-3230M - GeekBench 4

Intel Core i5-3230M – GeekBench 4

No fim das contas, a sétima geração é cerca de 50% mais eficiente do que a terceira geração (Ivy Bridge), o que significa um ganho de aproximadamente 10% por geração (de forma composta, naturalmente). Exatamente o que consta na propaganda da Intel, resultado de uma combinação de clocks, arquitetura, recursos internos e litografia (com somente uma redução de 22 nanômetros para 14 nanômetros).

Ganho por núcleo, vale destacar. Por incrível que pareça, essa comparação entre um dual-core e outro quad-core faz mais sentido aqui do que comparar o Core i7-7700HQ com um Core i5 quad-core, já que, como dissemos em nosso artigo sobre as diferentes classificações da Intel, o Core i5 é limitado a 4 Threads nas versões dual-core e nas versões quad-core. Ou seja, a comparação aqui ocorre entre dois núcleos com Hyperthreading, que garante um bom percentual extra de desempenho por núcleo.

Como os benchmarks mostram, tanto na primeira parte quanto aqui, é que vale a pena investir na geração mais atual sempre que possível. Isso não somente pelo desempenho bruto superior, mas também pelos recursos extras. Por exemplo, o suporte nativo a vídeos em 4K do Kaby Lake, ausente no Skylake, mesmo que a diferença de desempenho entre ambos seja de aproximadamente 10%.

Para saber mais:

O post Entenda como funcionam os benchmarks de CPU (parte 2) apareceu primeiro em Notebooks Avell.


Avell responde: usar o notebook na tomada vicia a bateria?

$
0
0

Como preservar a autonomia de bateria de um dispositivo? Será que usar um aparelho conectado à tomada danifica a bateria? Estas dúvidas são, certamente, umas das mais recorrentes. Não sem motivo, já que há muita desinformação compartilhada na internet sobre esse assunto. Mas, por quê? Muitos baseiam suas informações em tecnologias já antigas, pouco utilizadas em notebooks atualmente. Não somente em notebooks, vale dizer, mas em grande parte dos produtos que funcionam com bateria. Vamos começar com um dos questionamentos mais comuns: usar o notebook na tomada prejudica a bateria?

O “efeito memória” na bateria

O que é o efeito memória? Um dano químico interno da bateria que faz com que ela não utilize toda a sua capacidade. Um “vício”, comumente percebido quando a autonomia de um aparelho fica perceptivelmente menor. De fato, esse problema existe, mas com um detalhe: não acontece com baterias de íons de lítio, mas sim com tecnologias mais antigas, como as de níquel-cádmio (NiCd).

notebook na tomada

Atualmente é praticamente impossível encontrar um notebook ou smartphone com baterias de NiCd

As baterias de níquel-cádmio (NiCd) praticamente inexistem em notebooks e smartphones atualmente, pois exigem um longo ciclo de carga inicial para evitar o efeito memória. Uma luminária de emergência, por exemplo, costuma recomendar um carregamento inicial com o mínimo de 9 horas e o máximo de 18 horas exatamente por isso. Não é o caso com as baterias de lítio, presentes em praticamente todos os modelos hoje em dia.

Mas por que baterias de NiCd ainda são utilizadas em alguns produtos? Em especial por sua longevidade, aguentando mais de 10 anos sem grandes problemas. Em produtos específicos, como luminárias de emergências, essa é uma excelente vantagem, ainda que não seja uma tecnologia recomendada para notebooks e smartphones atuais. O motivo?

Ciclos e mais ciclos

Um dos grandes diferenciais das baterias de lítio é a sua robustez. Ela foi projetada para aguentar qualquer ciclo de carga ou requisição energética, equipando desde smartphones de baixo desempenho até veículos elétricos, como os carros da Tesla. Atualmente, modelos projetados para aguentar pelo menos 1.000 ciclos de carga são bastante comuns, o que muitas vezes significa que um produto acabará sendo trocado não por um problema de bateria, mas sim por já não atender as exigências do usuário.

Bateria de lítio

Bateria de lítio suportam mais ciclos de carregamento e descarregamento.

Como “prolongar” a vida útil de uma bateria? Basicamente evitando o superaquecimento, o verdadeiro inimigo das baterias de lítio. Por isso é importante manter um notebook sempre bem refrigerado, sem obstruir as saídas de ar, evitar o acúmulo de poeira e assim por diante. Naturalmente, é importante manter o notebook como um todo bem refrigerado, mas a bateria é o componente que mais sofrerá com o aquecimento excessivo. Então, será que deixar ligado o notebook na tomada faz mal?

Notebook na tomada: proteção ativa

Respondendo de uma forma bastante resumida: deixar ligado o notebook na tomada não prejudica a autonomia de bateria. Esse mito é tão comum quanto o “efeito memória” em baterias de lítio, e não por poucos motivos. A verdade é que o sistema de energia de um notebook ou smartphone é muito mais sofisticado do que parece. Em especial pelas proteções envolvidas, já que o próprio notebook “corta” o carregamento quando a carga chega a 100%, sendo alimentado diretamente pela corrente elétrica.

Ou seja, as baterias não são “sobrecarregadas”, continuando a receber energia quando estão cheias e ainda alimentando os outros componentes. O perigo está em outro lugar. Como dissemos, o principal inimigo da bateria é o calor excessivo, de forma que o uso intenso da máquina pode gerar calor o suficiente para danificar a bateria aos poucos, em certos modelos.

bateria no Avell Titanium G1513 IRON v4

Notem que a bateria fica isolada dos componentes “quentes”, como CPU e GPU, no Avell Titanium G1513 IRON v4

Atualmente é difícil encontrar um notebook que não isole a bateria dos componentes que geram calor (CPU, GPU), exatamente para protegê-la. Mas isso ainda acontece em outros modelos, sendo interessante remover a bateria (se possível) durante o uso intenso (jogos, edição de vídeos, programas CAD e assim por diante).

Fazendo um paralelo com smartphones, a principal recomendação é não usar um aparelho quando este está carregando. Em especial os modelos que adotam alguma solução de “carregamento rápido”, gerando grandes quantidades de calor para carregar a bateria mais rapidamente. Esse calor, isoladamente, não faz mal (afinal, a bateria foi projetada para isso). Mas, combinado com a tela ligada e algum game mais exigente, pode resultar em um nível de calor muito maior. Em especial quando lembramos que smartphones não usam soluções ativas de refrigeração.

baterias nos smartphones e notebooks

Há uma boa quantidade de camadas de proteção nos smartphones e notebooks mais atuais, garantindo a proteção da bateria.

De qualquer forma, como dissemos, o processo de carregamento de um aparelho é muito mais inteligente do que parece. O próprio carregador mede o nível de temperatura da bateria e ajusta a quantidade de energia para evitar superaquecimentos. O mesmo ocorre em notebooks, garantindo que a bateria não seja danificada com o uso diário ligado na tomada.

Isso não quer dizer, porém, que a bateria não vá perdendo carga com o passar do tempo. Ainda que as baterias sejam bastante resistentes e possuam diversas camadas de proteção, o uso delas irá degradá-las naturalmente. Porém, esse é um processo que ocorre de forma lenta, e não é intensificado com o uso conectado à tomada.

Fontes: Battery University, Digital Trends, Tecnologia do Globo, FOSS Bytes, Unitron

O post Avell responde: usar o notebook na tomada vicia a bateria? apareceu primeiro em Notebooks Avell.

Como tirar o máximo das placas de vídeo NVIDIA em jogos

$
0
0

Placas de vídeo mais recentes contam com um excelente gerenciamento de energia. Como vimos em nosso artigo sobre a série 10 da NVIDIA, não há mais diferenciação de chips entre o modelo de notebook e desktop. Isso se deve à redução de litografia e às melhorias internas da linha GeForce, que oferece um enorme ganho de desempenho em relação à geração anterior. Mas não são todos os apps e jogos que tiram proveito desse poder de fogo das placas de vídeo de forma automática. O que fazer nessas situações?

Em primeiro lugar, é imprescindível manter todos os softwares atualizados. Desde o próprio driver da NVIDIA e APIs até as atualizações dos próprios programas e do Windows. A vantagem é que os dois primeiros acionam notificações quando há uma nova versão, enquanto o último ocorre automaticamente. Com tudo atualizado, há três formas complementares de “mandar” os programas utilizarem a GPU dedicada. Vamos a elas:

Opções de energia do Windows

1. No menu do Windows, abra “Opções de Energia”, também acessível no Painel de Controle.

placas de vídeo nvidia

2. Em seguida, clique em “Alterar configurações do plano”.

placas de vídeo nvidia

3. Vá em “Alterar configurações de energia avançadas”.

placas de vídeo nvidia

4. Aqui temos duas configurações que, juntas, forçarão os gráficos dedicados em todos os programas e jogos do sistema.

placas de vídeo nvidia

4.1 O primeiro é o PCI Express, que gerencia a energia enviada para a placa de vídeo visando a economia de energia. Caso um programa não use a GPU integrada de forma automática, é possível desligar o gerenciamento de energia, basicamente “dizendo” para o computador que ele não precisa se preocupar em economizar energia, mas sim maximizar o desempenho.

placas de vídeo nvidia

4.2. Mais voltado ao desempenho, a opção “Gráficos Dinâmicos Globais” diz para todos os programas, de navegadores web a jogos, que se deve utilizar todo o desempenho disponível na máquina. Ou seja, jogar o trabalho pesado para placa de vídeo NVIDIA, não para os gráficos integrados da Intel.

placas de vídeo nvidia

Essas configurações funcionam para qualquer computador, independentemente da configuração, sendo um recurso do próprio Windows, mas existe uma segunda forma usando o próprio software da NVIDIA.

Placas de vídeo: NVIDIA GeForce Experience

Atualmente, raros são os jogos que não detectam automaticamente a placa de vídeo dedicada, em especial os comercializados em softwares como o Steam e Origin. Mesmo os instalados de forma independente sofrem com isso, já que são desenvolvidos em parceria com os fabricantes de GPUs. Ou seja, um jogo “sabe” quando há uma placa de vídeo disponível no momento da instalação na maioria dos casos.

placas de vídeo nvidia geforce experience

Ao abrir o GeForce Experience, os jogos instalados estarão listados. Mais do que garantir que a placa NVIDIA se encarregará de rodá-lo, é possível otimizar a experiência aqui. A bola verde indica se o jogo está otimizado ou não, sendo possível alterar as configurações de acordo com a preferência do usuário, tanto na tomada quanto na bateria.

placas de vídeo nvidia jogos

Essas configurações são as mesmas disponíveis dentro do próprio jogo, de forma que o GeForce Experience se comporta como um hub para configurar (e otimizar) todos os jogos de uma vez.

placas de vídeo nvidia jogos e apps

Dentro do próprio programa

Por fim, vale destacar que alguns programas permitem a seleção das placas de vídeo (integrada ou dedicada) dentro do próprio menu de configurações. É o caso do DaVinci Resolve, que permite trabalhar com APIs diferentes. Cada programa tem um caminho próprio, geralmente selecionando a própria GPU (AMD, Intel ou NVIDIA) ou uma API proprietária, caso da CUDA da NVIDIA, como mostrado abaixo.

placas de vídeo nvidia energia

Depois de selecionar, alguns programas pedem que o usuário feche e abra o aplicativo novamente para as configurações fazerem efeito. Basta fazer isso uma vez e usar todo o poder de fogo de sua placa de vídeo NVIDIA.

O post Como tirar o máximo das placas de vídeo NVIDIA em jogos apareceu primeiro em Notebooks Avell.

Review – Notebook Avell para Edição de Vídeo

$
0
0

Testes em notebook para edição de vídeo. Confira o review do modelo Avell Titanium G1513 IRON V4 com placa de vídeo GeForce GTX 1050 com 4GB de memória dedicada.

PLACA DE VÍDEO: NVIDIA GeForce GTX 1050 GPU (4GB GDDR5)
PROCESSADOR: Intel® Core™ i7-7700HQ Kaby Lake (6Mb cache até 3.8 GHZ)
MEMÓRIA: 32 GB Memória DDR4 (2400 MHZ)
ARMAZENAMENTO: SATAe M.2 960 GB SSD – [500 MB/s] TELA (LCD): 15.6″ IPS FULLHD 16:9 (1920x1080p) LED-Backlit Matte
TECLADO: Teclado Retroiluminado – Padrão ABNT2

Por: Rabbitfilms

CLIQUE AQUI e saiba mais sobre o Titanium G1513 IRON V4!

O post Review – Notebook Avell para Edição de Vídeo apareceu primeiro em Notebooks Avell.

Promoção NVIDIA – Comprou, Ganhou!

$
0
0

Entre na arena do Rocket League e ganhe o impulso de que precisa para vencer. A GeForce GTX série 10 proporciona desempenho sem precendentes e experiências imersivas com a NVIDIA Pascal – a arquitetura de placa de vídeo mais avançada já desenvolvida.

Por tempo limitado**, GANHE o game ROCKET LEAGUE na compra de um notebook gamer Avell com placa de vídeo GeForce GTX 1050 ou GTX 1060!

Experimente jogar os melhores games com uma placa de vídeo GeForce GTX série 10!

Clique aqui e confira os notebooks participantes!

 

IMPORTANTE:
Esta é uma promoção oferecida pela NVIDIA BRASIL junto aos seus parceiros, onde a Avell não possui direitos de ação sobre a promoção. Qualquer iniciativa ou ação da NVIDIA BRASIL ou fim de estoque do conteúdo, fica o cliente sujeito aos critérios da NVIDIA BRASIL.

**Sujeito à prazo de entrega do equipamento. Fale com um de nossos consultores para verificar a disponibilidade de estoque e prazo para emissão da nota fiscal do notebooK. SOMENTE SERÃO VÁLIDAS NOTAS FISCAIS EMITIDAS ATÉ 31 DE JULHO DE 2017!
 

COMPRAS REALIZADAS ANTES DA DATA DE 30 DE MAIO DE 2017 NÃO ESTÃO ELEGÍVEIS A GANHAR O JOGO.

TERMOS E CONDIÇÕES

Essa oferta está disponível apenas para notebooks equipados com placa de vídeo NVIDIA GTX 1050 ou GTX 1060. A promoção será válida até 31 DE JULHO DE 2016 ou enquanto durarem os estoques. Verifique a descrição do notebook que está adquirindo para confirmar se os games estão incluídos. Verifique com um de nossos consultores o prazo de entrega do produto – SOMENTE SERÃO VÁLIDAS NOTAS FISCAIS EMITIDAS ATÉ 31 DE JULHO DE 2017! Termos e condições adicionais podem ser aplicáveis.

REGULAMENTO PARA O TERRITÓRIO NACIONAL – BRASIL:

1) O código só poderá ser usado uma vez.

2) Só será permitido um código por pessoa.

3) É necessária a instalação do GeForce Experience para realizar o resgate do game. O resgate será realizado dentro do software que pode ser obtido em http://www.nvidia.com.br/object/geforce-experience-br.html

4) O resgate será possível somente por notebooks com placas inclusas na promoção através do GeForce Experience, ou seja, GeForce GTX 1050 e GeForce GTX 1060.

5) oferta tem início em 30 DE MAIO de 2017 e término em 31 DE JULHO de 2017 ou enquanto durarem os estoques.

6) A validade dos códigos finaliza em 30 de Agosto de 2017, ou seja, a partir desta data não será mais possível resgatar os games.

7) Só será permitido o download do game Rocket League para esta promoção.

8) Requer uma conta válida Steam que caso você não tenha poderá ser criada no site https://store.steampowered.com ou durante o processo de resgate.

9) Ao completar o processo de resgate através do GeForce Experience o game será inserido automaticamente na sua conta Steam.

10) O download poderá acarretar em custos de franquia de download por conta do cliente. Consulte no lançamento o tamanho de download e franquia de dados com sua operadora de internet.

11) Somente serão aceitas as notas fiscais emitidas dentro do prazo de vigência da promoção valendo somente a data impressa na Nota Fiscal como comprovação de compra.

12) Serão premiados apenas os participantes que enviarem seus dados pessoais através do site www.nvidia.com.br/promo juntamente com toda a documentação exigida.

13) O prazo máximo de análise dos seus dados e envio do código será de 10 dias úteis.

14) Serão aceitos somente notas fiscais emitidas dentro do território nacional e dos modelos de placas de vídeo válidas para esta promoção: Notebooks com GeForce GTX 1050 e GeForce GTX 1060.

15) O participante deve possuir acesso à internet para que possa fazer o download do pacote para ser usado no game.

16) Não haverá a possibilidade em qualquer hipótese da substituição do jogo por meio de download por mídia física.

17) O prêmio é intransferível, não sendo permitida sua troca por dinheiro ou qualquer outro produto, serviço ou jogo.

18) O prêmio não poderá ser revendido.

19) A campanha não é cumulativa para outros jogos de campanhas passadas, ou seja, o consumidor irá receber o jogo vigente na promoção de acordo com o seu período de compra.

20) A NVIDIA reserva-se o direito de invalidar e não enviar o código do jogo, caso a documentação exigida não esteja de acordo com este regulamento ou apresente indícios de irregularidade.

21) Os termos e condições podem ser mudados sem prévio aviso.

COMPRAS REALIZADAS ANTES DA DATA DE 30 DE MAIO DE 2017 NÃO ESTÃO ELEGÍVEIS A GANHAR O GAME

 

O post Promoção NVIDIA – Comprou, Ganhou! apareceu primeiro em Notebooks Avell.

Quais são os diferenciais dos teclados mecânicos?

$
0
0

Teclados mecânicos estão se tornando cada vez mais comuns, em especial entre os gamers. Mas, afinal, quais são as características que fazem dele diferente dos teclados considerados “normais”? Por incrível que pareça, a tecnologia utilizada nos modelos mecânicos está longe de ser nova, sendo bastante comuns nos modelos da década de 1980.

Com o passar do tempo, os modelos mecânicos foram abandonados em favor dos modelos de membrana, hoje praticamente onipresentes em desktops e notebooks. Um dos diferenciais da membrana é que ela permitia a utilização de teclas de baixo relevo. Teclados mecânicos, em grande parte dos modelos, exigem um “clique” mais profundo devido ao seu mecanismo interno. O principal incentivo, porém, é o menor custo, já que se trata de uma tecnologia muito mais barata.

Teclados de membrana: como funcionam?

Independentemente do tamanho das teclas, espaçamento ou layout, todos os teclados de membrana funcionam da mesma forma. Basicamente, temos 3 membranas de plástico com switches arredondadas sob cada uma das teclas.

teclados mecânicos membranas

São três membranas cobrindo toda a região do teclado, responsáveis por todas as teclas.

Ao pressionar uma tecla, as membranas superior e inferior são conectadas, fechando o circuito, resultando no sinal elétrico que o computador interpreta como uma tecla.

teclados mecânicos

Ao clicar, encosta-se a as membranas superior e inferior, fechando o circuito e enviando a sinal elétrico ao computador.

Além do baixo custo de fabricação, os teclados de membrana trazem um diferencial importante: uma certa resistência contra respingos de água. Ou seja, conseguem sobreviver àquele acidente com um copo de água, na maioria das vezes. Porém, não chegam a oferecer um feedback considerável para o usuário, o que pode modificar a forma como digitamos.

Os gamers, em especial, costumam evitar modelos de membrana por um motivo importante: ghosting. Ou seja, quando o teclado não responde corretamente quando múltiplas teclas são pressionadas simultaneamente, algo particularmente comum em jogos de corrida ou FPS. O próprio funcionamento interno dos teclados mecânicos elimina esse problema, mas esse não é o único diferencial destes.

Uma tecla, um switch

Os modelos mecânicos se destacam por uma característica em especial: cada tecla conta com apenas um switch independente. Não há membranas internas abaixo das teclas, e sim um mecanismo responsável unicamente por uma tecla. Essa característica, por si só, já oferece uma sensação completamente diferente ao digitar. Ao contrário do que o mecanismo possa sugerir, o clique é muito mais suave, exigindo menos pressão para ser acionado.

teclados mecânicos teclas

Cada tecla conta somente com um switch, eliminando o problema de ghosting.

Vale destacar que não existe somente um tipo de switch mecânica. Os atuais teclados mecânicos contam com diversas switches diferentes, oferecendo sensações de cliques particulares. Cada mecanismo ganha o nome de uma cor em inglês (Green, Blue e assim por diante), com os modelos Red e Brown sendo os mais populares e facilmente encontrados no mercado.

No caso da Red, o usuário deve executar um “longo” clique para aciona a tecla, como podemos ver na animação abaixo.

teclados mecânicos modelo Red

No modelo Red, deve-se pressionar completamente a tecla.

Já no caso da Brown, basta um leve toque, ainda que isso não impeça o usuário de executar um longo clique, como acontece com a Red. Diferentemente do que a imagem possa sugerir, o clique longo não causa um “duplo clique”, já que o circuito (em cinza) não desconecta até a liberação da pressão.

teclados mecânicos modelo Brown

Já no modelo Brown, temos dois estágios, bastando um leve toque para fechar o circuito.

 

Teclados mecânicos são mais resistentes

Além do feedback mais suave e preciso, temos vantagens adicionais. Teclados mecânicos são mais resistentes e raramente apresentam problemas. E, quando ocorrem falhas, é mais rápido localizar a causa, facilitando o processo de reparo sem afetar o teclado como um todo – como acontece com modelos de membrana.

Outro diferencial importante dos teclados mecânicos é a capacidade de customização. Atualmente, são raros os modelos que não trazem teclas retroiluminadas, com cada tecla contando com um LED individual. Isso permite personalizações por parte do fabricante. Por exemplo: o acendimento programado de somente algumas teclas particulares, como WASD, setas e teclas especiais, assim como a desativação de teclas que podem atrapalhar. É o caso, por exemplo, do botão “Windows”, muitas vezes abrindo o menu do Windows mesmo que você esteja jogando, o que pode ser a diferença entre “um dead e um kill”.

Mas teclados mecânicos são pesados, com teclas grandes, certo? Servem somente para desktops? Será mesmo?

Feedback dos teclados magnéticos

De fato, grande parte dos teclados mecânicos é pesada (por vezes, passam de 2,5 kg) e possui teclas com perfil alto. Alguns fabricantes os utilizaram em notebooks mesmo assim, priorizando este em detrimento do design, ou mesmo da portabilidade.

Mas uma nova geração de teclados mecânicos está se popularizando para unir o melhor dos dois mundos: a suavidade e superioridade técnica dos teclados mecânicos com o baixo perfil e portabilidade dos modelos de membrana: modelos magnéticos.

Exatamente: a mesma tecnologia utilizada em trens de última geração, como o Maglev de Shangai, só que para teclados. A Darfon é uma das principais representantes desse segmento, eliminando o principal inconveniente dos modelos mecânicos: o perfil alto. Naturalmente, o público-alvo são os notebooks, em especial os modelos voltados para gamers mais avançados, além de não sacrificarem o design e a portabilidade.

teclado mecânico da Darfon

Pode não parecer, mas se trata de um teclado mecânico da Darfon. Mas com baixo perfil, feedback magnético e um excelente design.

teclados mecânicos tecnologia

Avell Titanium G1513 MX – Graças à tecnologia magnética, é possível manter as teclas em um nível baixo o suficiente para não sacrificar a portabilidade.

Equipados com placas de vídeo GeForce GTX Série 10 e a nova estrutura de teclado, a Avell traz, em junho de 2017, os notebooks com teclado mecânico no segmento gamer e profissional com preços a partir de R$4.769,10 no boleto: CONFIRA.

Qual é a sensação de utilizá-los? É difícil descrever. É o mesmo que tentar explicar conceitualmente a superioridade do G-SYNC em relação às telas de atualização fiz ou as vantagens de um SSD em relação ao um disco rígido comum. Depois de experimentar, é difícil voltar a usar o anterior.

Fontes: PC World, CNET, MakeUseOf, Reddit, Microsoft

O post Quais são os diferenciais dos teclados mecânicos? apareceu primeiro em Notebooks Avell.

Promoção NVIDIA – Comprou, Ganhou: Destiny II

$
0
0

A última cidade segura da humanidade caiu nas mãos de uma força de invasão esmagadora, liderada por Ghaul, o imponente comandante da brutal Legião Vermelha. Ele derrotou os Guardiões da cidade do seu poder e obrigou os sobreviventes a fugir. Você irá se aventurar em mundos misteriosos e inexplorados do nosso sistema solar para descobrir um arsenal de armas e devastadoras habilidades de combate. Para derrotar a Legião Vermelha e enfrentar Ghaul, você deverá reunir os heróis dispersos da humanidade, unir-se e lutar para recuperar nosso lar.

Fique Game Ready com a GeForce GTX série 10 e tenha a melhor experiência do Destiny 2 no PC. Por tempo limitado, compre um notebook AVELL com placa de vídeo GeForce GTX 1080 e garanta o Destiny 2 para PC e o acesso ao Beta no PC!

Clique aqui e confira os notebooks participantes!

 

IMPORTANTE:
Esta é uma promoção oferecida pela NVIDIA BRASIL junto aos seus parceiros, onde a Avell não possui direitos de ação sobre a promoção. Qualquer iniciativa ou ação da NVIDIA BRASIL ou fim de estoque do conteúdo, fica o cliente sujeito aos critérios da NVIDIA BRASIL.

Fale com um de nossos consultores para verificar a disponibilidade de estoque e prazo de entrega do produto. SOMENTE SERÃO VÁLIDAS AS COMPRAS REALIZADAS DOS DIAS 13 DE JUNHO DE 2017 ATÉ 27 DE JULHO DE 2017!
 

COMPRAS REALIZADAS ANTES DA DATA DE 13 DE JUNHO DE 2017 NÃO ESTÃO ELEGÍVEIS A GANHAR O JOGO.

TERMOS E CONDIÇÕES

Essa oferta está disponível apenas para notebooks equipados com placa de vídeo NVIDIA GTX 1080. A promoção será válida até 27 DE JULHO DE 2017 ou enquanto durarem os estoques. Verifique a descrição do notebook que está adquirindo para confirmar se o game está incluído. Verifique com um de nossos consultores o prazo de entrega do produto – SOMENTE SERÃO VÁLIDAS AS COMPRAS REALIZADAS DOS DIAS 13 ATÉ 27 DE JULHO DE 2017! Termos e condições adicionais podem ser aplicáveis.

REGULAMENTO PARA O TERRITÓRIO NACIONAL – BRASIL:

1) O código só poderá ser usado uma vez.

2) Os clientes receberão o código diretamente da Avell após confirmação da compra.

3) Só será permitido um código por pessoa.

4) É necessária a instalação do GeForce Experience para realizar o resgate do game. O resgate será realizado dentro do software que pode ser obtido em http://www.nvidia.com.br/object/geforce-experience-br.html

5) O resgate será possível somente por notebooks com placas inclusas na promoção através do GeForce Experience, ou seja, GeForce GTX 1080.

6) oferta tem início em 13 DE JUNHO de 2017 e término em 27 DE JULHO de 2017 ou enquanto durarem os estoques.

7) Só será permitido o download do game Rocket League para esta promoção.

8) Requer uma conta válida Steam que caso você não tenha poderá ser criada no site https://store.steampowered.com ou durante o processo de resgate.

9) Ao completar o processo de resgate através do GeForce Experience o game será inserido automaticamente na sua conta Steam.

10) O download poderá acarretar em custos de franquia de download por conta do cliente. Consulte no lançamento o tamanho de download e franquia de dados com sua operadora de internet.

11) Somente serão aceitas as notas fiscais emitidas dentro do prazo de vigência da promoção valendo somente a data impressa na Nota Fiscal como comprovação de compra.

12) Serão premiados apenas os participantes que enviarem seus dados pessoais através do site http://blog.avell.com.br/promocional/ juntamente com toda a documentação exigida.

13) O prazo máximo de análise dos seus dados e envio do código será de 10 dias úteis.

14) Serão aceitos somente notas fiscais emitidas dentro do território nacional e dos modelos de placas de vídeo válidas para esta promoção: Notebooks com GeForce GTX 1080.

15) O participante deve possuir acesso à internet para que possa fazer o download do pacote para ser usado no game.

16) Não haverá a possibilidade em qualquer hipótese da substituição do jogo por meio de download por mídia física.

17) O prêmio é intransferível, não sendo permitida sua troca por dinheiro ou qualquer outro produto, serviço ou jogo.

18) O prêmio não poderá ser revendido.

19) A campanha não é cumulativa para outros jogos de campanhas passadas, ou seja, o consumidor irá receber o jogo vigente na promoção de acordo com o seu período de compra.

20) A AVELL reserva-se o direito de invalidar e não enviar o código do jogo, caso a documentação exigida não esteja de acordo com este regulamento ou apresente indícios de irregularidade.

21) Os termos e condições podem ser mudados sem prévio aviso.

Caso você tenha algum problema para fazer o resgate, entre em contato conosco através do e-mail: promo@avell.com.br.

COMPRAS REALIZADAS ANTES DA DATA DE 13 DE JUNHO DE 2017 NÃO ESTÃO ELEGÍVEIS A GANHAR O GAME

 

O post Promoção NVIDIA – Comprou, Ganhou: Destiny II apareceu primeiro em Notebooks Avell.

DDR3 vs DDR4: quais são as vantagens do novo padrão?

$
0
0

Diferentemente de processadores e placas de vídeo, a memória RAM trabalha com um ciclo mais longo de atualização. A introdução de um novo padrão também não acontece do dia pra noite, demorando alguns anos para se consolidar. É o caso do DDR4, que atualmente coexiste com o DDR3, mas que já se tornou comum em máquinas mais avançadas. É o caso do Titanium G1513 IRON V4 que temos em mãos, com suporte para até 32 GB de Memória DDR4. Afinal, quando se compara DDR3 vs DDR4, quais são as vantagens do DDR4 em relação ao DDR3? É o que vamos descobrir nas próximas linhas.

DDR3 vs DDR4: Frequência

O primeiro destaque é, naturalmente, o aumento da frequência de operação. Enquanto o DDR3 trabalha com frequências entre 800 MHz e 2400 MHz, o DDR4 parte dos 2133 MHz, chegando a 4266 MHz. Lembrando que essas são as frequências originalmente projetadas, já que futuramente elas podem ser ainda maiores. O DDR3, por exemplo, ultrapassou os 3000 MHz de frequência, e tudo indica que o DDR4 passará pelo mesmo processo.

DDR3 vs DDR4: diferenças no acesso aos dados

DDR3 vs DDR4: diferenças no acesso aos dados

Essas frequências maiores beneficiam especialmente os notebooks. Tipicamente, modelos equipados com memórias DDR3 trabalhavam com 1600 MHz, raras vezes chegando a 1866 MHz. O motivo? As próprias dimensões dos pentes de memória, menores do que os utilizados em desktops, limitações térmicas e foco em autonomia de bateria. Essas 3 variáveis são “resolvidas” com o padrão DDR4.

Capacidade e calor

Outro benefício direto para os notebooks é a capacidade dos pentes de memória. O DDR3 inicia com capacidades de 512 MB, chegando até 8 GB. Já o DDR4 parte de 4 GB e vai até 16 GB por pente. Os Notebooks de alto desempenho chegam a oferecer até 4 slots de memória, raramente sofrendo com a falta de slots disponíveis, sendo comumente encontrados a partir de 2 slots. Ou seja, ter até 32 GB de memória RAM no equipamento passa a ser cada vez mais comum, chegando até 64 GB em notebooks de altíssimo desempenho.

DDR3 vs DDR4

Notebooks de alto desempenho chegam a oferecer de 2 a 4 slots, com capacidade até 64GB de Memória RAM.

Temos, então, uma frequência maior de operação e mais capacidade disponível, além de um menor consumo de energia, já que o DDR4 trabalha com 1,2 V, contra 1,5 V do DDR3. Pode parecer apenas um detalhe, mas, combinado com a menor amperagem, essa mudança resulta em uma economia de até 40% de energia. Uma boa notícia não só para a autonomia de bateria, como também para o sistema de refrigeração, já que isso significa menor dissipação de calor. Em outras palavras, em uma máquina mais fria e econômica.

Latência

Conforme a frequência aumenta, o mesmo ocorre com a latência. Esta pode ser entendida como o tempo de acesso aos dados, aumentando do CL10 ou CL11 no DDR3 para o CL14 ou CL15 no DDR4. Na prática, esse incremento pouco influencia no desempenho real, comparando uma memória DDR3 e outra DDR4 trabalhando com a mesma frequência. Como as memórias DDR4 trabalham com uma frequência consideravelmente maior, esse atraso fica ainda mais imperceptível.

DDR3 vs DDR4: Comparativo de latências.

Comparativo de latências.

Benefícios extras e suporte

Uma frequência de operação maior, assim como a maior capacidade, certamente beneficia o processador, que ganha um potencial extra se comparado ao DDR3. Mas não podemos nos esquecer dos gráficos integrados, que certamente evoluíram bastante nos últimos anos. Isso significa que certas tarefas que exigiriam uma GPU dedicada mais poderosa podem ser executadas nos gráficos Intel HD, o que significa um menor consumo de bateria e menos calor dissipado.

Naturalmente, jogos de alto desempenho, editores de vídeo e CAD e programas de modelagem 3D ainda serão executados na GPU dedicada, mas tarefas do dia a dia podem rodar perfeitamente nos gráficos integrados.

DDR3 vs DDR4: memórias DDR3 utilizam 240 pinos, contra 288 pinos do DDR4.

Apesar de parecidas, as memórias DDR3 utilizam 240 pinos, contra 288 pinos do DDR4.

Para encerrar sobre a comparação DDR3 vs DDR4, vale dizer que não é possível atualizar uma máquina com memórias DDR3 para DDR4: é preciso que o PC ou notebook já tenha esse suporte não somente no chipset, como também no slot. Apesar de parecidos, os encaixes do DDR4 são diferentes do DDR3, não sendo possível trocar uma por outra. De qualquer forma, investir em um modelo com DDR4 é uma escolha segura para os próximos anos, já que ele será cada vez mais popular, enquanto máquinas com DDR3 ficarão cada vez menos comuns.

Fontes: Windows Central, Corsair, LinusTechTips Forums

O post DDR3 vs DDR4: quais são as vantagens do novo padrão? apareceu primeiro em Notebooks Avell.


DDR e GDDR: Quais são as diferenças entre as memórias?

$
0
0

Diferentemente dos gráficos integrados, que compartilham a memória RAM do sistema, as placas de vídeo offboard possuem sua própria memória RAM. O motivo? Esta é mais rápida do que a memória do sistema na grande maioria dos casos, o que implica em um preço maior. Mesmo as GPUs mais avançadas raramente trazem mais de 8 GB de memória dedicada (na data de fechamento deste artigo), o que ocorre tanto pelo custo maior quanto por necessidade.

Mas, afinal, quais são as diferenças entre a memória RAM e a memória da placa de vídeo dedicada? Será que são tão diferentes assim? É possível usar a memória GDDR com a CPU? É o que vamos explorar neste artigo.

Diferenças e semelhanças: DDR e GDDR

O “DDR” é uma sigla em inglês para “Double Data Rate”. No caso da memória da placa de vídeo, temos o “G” extra, significando “Gráfico” (“Graphics”, em inglês). Tanto a memória RAM do sistema quanto à da placa de vídeo são classificadas por gerações, como DDR3, DDR4 (o padrão atual), assim como GDDR3 e GDDR5. Essencialmente, ambas usam a mesma arquitetura, mas há algumas modificações do padrão que fazem as memórias GDDR mais apropriadas para o uso em GPUs.

DDR e GDDR

Principais diferenças entre os padrões de memória RAM, com diferentes tensões, clocks e barramentos.

Vamos usar as memórias DDR3 e GDDR3 como exemplo. A primeira grande diferença aparece na alimentação típica de cada uma: 1,5V na DDR3, contra 1,8V na GDDR3. Essa alimentação extra permite que a memória GDDR3 trabalhe com frequências maiores, naturalmente significando também um consumo maior de energia e de dissipação térmica. Além disso, temos um barramento de dados de 32 bits na GDDR3, contra uma faixa de 4 a 16 bits na DDR3. Abaixo, temos as principais diferenças de cada uma.

Evolução das memórias DDR e GDDR.

Evolução das memórias DDR e GDDR.

Uma diferença pequena, certo? Apesar do nome indicar uma mesma geração, a memória GDDR3 é baseada na memória DDR2. Já a memória GDDR4, que foi “pulada”, foi projetada com base na DDR3. Isso significa que a GDDR5 é baseada na memória DDR4? Curiosamente, também é baseada na memória DDR3, com o diferencial de trazer o dobro de linhas de dados. Com isso em mente, vamos à pergunta: por que não usar a memória GDDR com a CPU?

CPU + GDDR5?

Em primeiro lugar, temos o custo. Instalar uma quantidade razoável de memória GDDR5 em um PC comum, como 8 ou 16 GB, tornaria seu preço proibitivo. Outro ponto é que, apesar do que dissemos acima, a arquitetura dos modelos GDDR e DDR3 é semelhante, mas não idêntica. Ao comprar um pente de memória DDR3, por exemplo, ele funcionará em qualquer máquina com esse slot. Seja um notebook mais atual, seja um modelo de 5 anos que use o mesmo padrão. Não é o caso com memórias GDDR.

DDR e GDDR

Memórias DDR são padronizadas e podem funcionar em diferentes placas-mãe de diferentes fabricantes.

Empresas de chips gráficos, como a NVIDIA e a AMD, não fabricam placas de vídeo (não para o consumidor diretamente, já que o fazem com suas séries profissionais). A “responsabilidade por desenvolver” a placa de vídeo fica para fabricantes de hardware, que customizam clocks, quantidade/tipo de memória, sistemas de refrigeração, e assim por diante. Um chip GDDR5 usando em um fabricante A não usa as mesmas especificações do fabricante B, assim como controladores de tensão, capacitores e outros componentes.

DDR e GDDR

Já as memórias GDDR são implementadas por fabricantes, usando um chip da AMD ou NVIDIA. São quase computadores completos, com memórias soldadas e customizadas em cada um dos modelos.

A placa de vídeo pode ser entendida como uma espécie de computador à parte, um “subsistema” dentro do computador. Diferentemente do que ocorria há alguns anos, isso em alguns poucos modelos, a quantidade e o tipo de memória não podem ser customizadas pelo consumidor, já que são soldadas à placa. E isso é ótimo, pois permite que fabricantes customizem seus produtos para se tornarem mais competitivos. É o caso, por exemplo, do Avell Titanium G1513 Iron V4, que oferece a GTX 1050 da NVIDIA com 4 GB GDDR5, contra 2 GB das especificações originais.

Padrões pós-GDDR5

Grande parte dos chips de alto desempenho, tanto da AMD quanto da NVIDIA, traz memórias GDDR5. Isso em diferentes quantidades, indo de 1 GB até mais de 8 GB. E também já há algum tempo, mesmo com ganhos de velocidade. Em um próximo artigo vamos explorar os padrões da próxima geração, projetados para substituir o GDDR5. Vamos partir do GDDR5X, atualmente presente na NVIDIA GeForce GTX 1080 e GTX 1080 Ti e HBM e chegaremos no GDDR6 e no HBM2.

Fontes: Clube do Hardware, Micron GDDR5 Introduction, NVIDIA

O post DDR e GDDR: Quais são as diferenças entre as memórias? apareceu primeiro em Notebooks Avell.

Memórias HBM e GDDR5X: Indo muito além do GDDR5

$
0
0

Em nosso artigo anterior, vimos como a memória de GPU é diferente da memória RAM utilizada pelo processador. Basicamente, são baseadas na tecnologias atuais de CPU, mas trazem modificações de tensão, clock, barramento, entre outras características, que as tornam mais rápidas. Por outro lado, não há uma padronização do GDDR, já que cada fabricante adota quantidades diferentes, assim como especificações diferentes.

Vimos também que o GDDR5 está no mercado já há algum tempo. Isso nas GPUs de alto desempenho, com o GDDR3 ainda presente em modelos mais básicos. Já temos dois novos padrões de alto desempenho no mercado, ainda restritos a poucos modelos, e vamos conhecer um pouco mais sobre eles neste artigo.

HBM

Desenvolvido Disponíveispela AMD, o HBM (High Bandwidth Memory – Memória de Alta Banda) chegou ao mercado focado em resolver dois dos principais gargalos do GDDR5. O primeiro é a lenta evolução do GDDR5 em comparação com a potência das novas gerações de GPU, tanto da AMD quanto da NVIDIA. Em outras palavras, a velocidade do GDDR5 não “acompanha” o desenvolvimento de novas arquiteturas de GPU.

GDDR5

O HBM implementa memórias de forma vertical, ocupando um espaço munto menor.

Em segundo lugar, para alcançar uma banda mais alta, são necessários vários chips de memória. Estes consomem um espaço precioso na placa de GPU, além de consumir uma energia considerável. Como o HBM resolve isso? Basicamente, os chips são posicionados de forma vertical, resolvendo o problema de “espaço” e de consumo energético. Mas temos também alguns problemas importantes.

GDDR5

O GDDR5 implementa seus chips e memória e um mesmo plano, ocupando um espaço considerável. 12 GB de memória dedicada exigem 12 chips, como mostrado acima.

Com uma área menor no PCB, a solução de refrigeração deve ser mais avançada, já que ocupa um espaço menor. Em segundo lugar, a primeira geração do HBM é limitada a 4 GB de memória dedicada. Ainda que não seja um problema para o 1080p, certamente é um limitador e tanto para resoluções maiores (1440p e 4K), disponível na maioria dos títulos atuais. Essa primeira geração foi utilizada apenas pela AMD, mas a segundo, que vamos conhecer em um próximo artigo, resolve boa parte dos problemas, sendo cotada para ser utilizada também pela NVIDIA.

GDDR5X

Considerando as limitações do HBM, a NVIDIA optou pelo GDDR5X em suas GPUs mais avançadas. Essa tecnologia deve ser entendida mais como uma transição entre o GDDR5 e o GDDR6 do que um padrão completamente novo, sendo uma melhoria do GDDR5. A vantagem do GDDR5X é a sua capacidade de alcançar velocidades altíssimas, acima de 10 Gbps graças ao prefetch de 64 bits (contra 32 bits do GDDR5) e ao maior número de pinos.

GDDR5

O GDDR5X não chega a ser um padrão novo, sendo mais uma evolução do GDDR5.

De qualquer forma, os problemas inerentes do GDDR5 continuam presentes. Cada chip possui 1 GB de capacidade, sendo necessário utilizar 8 deles em uma GTX 1070 para alcançar os 8 GB. Isso de forma 2D no PCB, ocupando um espaço considerável. Ou seja, o GDDR5X dá uma sobrevida ao GDDR5 para a série 10 (GTX 1080 e 1080 Ti), mas mostra a exaustão do padrão, presente desde 2008, e a necessidade de um novo.

GDDR5

Essas pequenas melhorias resultam em benefícios diretos na velocidade final da memória.

Qual padrão será esse? No próximo artigo conheceremos um pouco mais sobre o HBM2 e o GDDR6, ambos propostos para substituir o GDDR5, assim como o DDR4 fez com o DDR3.

Fontes: Canaltech, AMD HBM, Makarov Tecnologia

O post Memórias HBM e GDDR5X: Indo muito além do GDDR5 apareceu primeiro em Notebooks Avell.

HBM2 (segunda geração): Indo muito além do GDDR5

$
0
0

Como vimos no artigo anterior, o GDDR5 já é utilizado há bastante tempo, mas já mostra seus sinais de exaustão. As GPUs GTX 1080 e GTX 1080 Ti conseguiram dar uma sobrevida ao padrão com o GDDR5X, inicialmente trabalhando com 10 Gbps, mas que não altera um fato de que um padrão novo se faz necessário. O HBM se apresentou como uma solução viável, mas sua primeira geração era restrita a 4 GB de capacidade. Ou seja, não é uma capacidade adequada para as placas de vídeo mais poderosas do mercado.

Mas já temos a sua segunda geração (HBM2), e vamos conhecer um pouco mais sobre ela.

High bandwidth memory” de segunda geração

Apesar de ser limitada em quantidade (os 4 GB que mencionamos), o HBM trouxe avanços consideráveis. Oferece um maior volume de dados (até 128 GB/s, contra 32 GB/s do GDDR5), menor latência, consumo de energia e, claro, uma menor necessidade de espaço físico no PCB. Por ser uma memória “empilhada”, uma quantidade razoável de memória pode ser utilizada em dimensões reduzidas, enquanto as memórias GDDR5 e GDDR5X exigem vários chips lado a lado.

Configurações possíveis do HBM2

Configurações possíveis do HBM2 de acordo com o segmento.

O HBM2 permite que cada camada de memória tenha entre 1 e 8 GB, garantindo que até 32 GB de memória dedicada possam ser implementados tanto pela AMD quanto pela NVIDIA. Isso com velocidades que chegam até a 256 GB/s, certamente um benefício e tanto tanto para jogos mais recentes quanto para aplicações que exijam um enorme potencial de processamento de dados. Cálculos científicos, simulações de alta complexidade, aplicações médicas: todas elas são beneficiadas pelo HBM2.

As principais características do HBM original são preservadas e melhoradas, e exatamente por isso ainda são bastante caras. É o caso do TSV (though silicon vias), responsável pela comunicação entre as camadas de memória, do PHY, comunicação direta com o SoC (o chip fabricado pela AMD ou NVIDIA), e o Interposer, uma camada de silicone que fica entre a memória e a placa. Todas essas tecnologias aumentam os custos do HBM2, em especial por ainda ser bastante nova.

HBM2 e HBM

Visualização esquemática do HBM/HBM2, mostrando os destaques da tecnologia: PHY, Interposer e TSV.

Naturalmente, com o passar dos anos, as sucessivas gerações do HBM ficarão cada vez mais acessíveis, em especial por serem baseadas no mesmo princípio. Mas, inicialmente, as aplicações do HBM2 ainda são bem pontuais, ainda que ela tenha uma chance de popularização muito maior do que o HBM original. E isso acontece por um motivo em especial.

HBM2 e NVIDIA

Ainda que o HBM seja uma criação da AMD, nada impede que outras fabricantes utilizem o padrão. Isso não ocorreu na primeira geração, que a NVIDIA deixou de lado, muito provavelmente pela limitação de 4 GB. Isso pode mudar nas próximas gerações, e tudo indica que provavelmente mudará. A NVIDIA já deu o primeiro passo nesse sentido: a Tesla P100 foi anunciada com 16 GB de memória HBM2. E, curiosamente, foi a primeira fabricante a fazê-lo, e não a AMD.

HBM2

Mesmo sendo uma tecnologia da AMD, a NVIDIA saiu na frente e anunciou o primeiro produto com HBM2. A placa Tesla P100 não é voltada para o consumidor final, mas indica o caminho que a NVIDIA está seguindo para as próximas gerações.

Não podemos nos esquecer que a família Tesla não é projetada para jogos (nem saída de vídeo possuem). Mas já é um primeiro passo importante, indicando que a próxima geração de placas de vídeo da NVIDIA podem chegar com o HBM2 (nos modelos mais avançados, naturalmente). A AMD já “promete” sua próxima geração (Vega) com 16 GB de HBM2. Ou seja, a concorrência entre AMD e NVIDIA está longe de esfriar, e quem ganha com isso é o usuário, que sempre pode contar com tecnologias de ponta.

Será que o GDDR6 mudará esse cenário? Em próximo artigo vamos conhecer um pouco mais sobre ele, e quais são os seus diferenciais em relação ao GDDR5.

Fontes: JEDEC, WCCFtech, TechPowerUP, Quora

O post HBM2 (segunda geração): Indo muito além do GDDR5 apareceu primeiro em Notebooks Avell.

GDDR6 nas GPUs intermediárias: Indo além do GDDR5

$
0
0

Como vimos no artigo anterior, o HBM2 resolve boa parte dos problemas da primeira geração. O mais limitante deles é, naturalmente, suportar apenas 4 GB de memória dedicada, quantidade insuficiente para os jogos mais recentes. Suas vantagens técnicas são escaparam nem da NVIDIA, principal concorrente da AMD (criadora da tecnologia), que já implementou a segunda geração do HBM em sua linha Tesla.

GDDR6

Inicialmente, os chips GDDR6 chegarão com 1 GB (8 Gb), capacidade que dobrará logo no começo de 2018.

Mas, por se tratar de uma tecnologia nova, ainda bastante cara, não será utilizada em todos os modelos da nova geração. Em vez do HBM de segunda geração, ou mesmo o HBM original, essa nova geração provavelmente contará com o GDDR6, que substituirá de uma vez tanto o GDDR5 quanto o GDDR5X.

GDDR6

Um dos grandes temas do GTC 2017 foi o GDDR6, que beneficiará não somente os gamers, mas a indústria como um todo.

O que o GDDR6 tem a oferecer? Prevista para chegar ao mercado com o anúncio da arquitetura Volta da NVIDIA, o grande diferencial é dobrar a capacidade teórica em relação ao GDDR5. Basicamente, sobra o número de canais (2 de 32 bits), ao mesmo tempo em que tira vantagem da diminuição da litografia do processo de fabricação, prevendo uma maior densidade dos chips.

Mais do que dobrar a velocidade, teremos, em pouco tempo, a duplicação da capacidade dos chips. O GDDR6 mantém a implementação planar, diferentemente do HBM, mas a Hynix, uma das principais fabricantes do mundo de semicondutores, já anunciou que os chips virão com capacidades de 16 Gb (2 GB) já no começo de 2018. Mais do beneficiar as GPUs high end, esse fato será extremamente bem-vindo nos modelos intermediários e mais básicos.

Principais diferenças técnicas entre o GDDR5 e o GDDR6.

Principais diferenças técnicas entre o GDDR5 e o GDDR6.

Detalhes sobre a arquitetura Volta aparecem com bastante frequência, tanto do potencial bruto de processamento dessa nova geração quanto das novas tecnologias que ela oferecerá. Estamos preparando um especial sobre a Volta (série 20), da mesma forma que fizemos com a Pascal (série 10), mas o tipo de memória que será utilizado já está praticamente certo: HBM2 nas GPUs mais avançadas, GDDR6 nos modelos intermediários e mais básicos e (provavelmente) o GDDR5 nos modelos de entrada, abaixo da série GTX, que traziam o GDDR3 na série 900. No caso, abaixo da GTX 2050.

A geração Pascal trouxe um enorme avanço em relação à geração anterior, algo que será intensificado na geração Volta. A mudança nas memórias utilizadas é um passo importante nesse sentido.

A geração Pascal trouxe um enorme avanço em relação à geração anterior, algo que será intensificado na geração Volta. A mudança nas memórias utilizadas é um passo importante nesse sentido.

Como dissemos acima, o GDDR6 terá uma litografia menor, ponto que beneficia especialmente os notebooks. A redução de litografia para 16 nanômetros na série 10 foi o principal ponto que permitiu o uso da mesma versão desktop em notebooks gamer. Além das otimizações esperadas na série 20, a redução de litografia nos chips de memória permitirá uma redução significativa na TDP na próxima geração.

Além do processamento maior, menor consumo e novas memórias, podemos esperar novas tecnologias proprietárias da NVIDIA na Volta.

Além do processamento maior, menor consumo e novas memórias, podemos esperar novas tecnologias proprietárias da NVIDIA na Volta.

O GDDR6 não chegará para concorrer com o HBM2, uma tecnologia completamente nova que conta com um potencial de escala maior. Mas certamente terá uma longa vida, já que chegará para as GPUs mais básicas, onde está boa parte do volume de vendas de novos modelos. Ou seja, a próxima geração promete muito, com o HBM mirando nos entusiastas, enquanto o GDDR6, por si só, garante um aumento significativo de desempenho bruto nesses modelos.

Fontes: WCCFtech 1 e 2

O post GDDR6 nas GPUs intermediárias: Indo além do GDDR5 apareceu primeiro em Notebooks Avell.

NVIDIA Max-Q Design: um novo design para os notebooks gamers

$
0
0

Notebooks gamer são sinônimos de alto poder de fogo há vários anos, oferecendo o que há de mais moderno e poderoso em termos de hardware. Porém, também sempre foram vítimas de uma sina: como contrapartida, eram grandes e pesados. Sob um ponto de vista técnico, faz sentido. Afinal, componentes poderosos geram mais calor, exigindo um sistema de refrigeração capaz de protegê-los do calor excessivo.

Não raro, alguns modelos chegam a medir mais de 5 centímetros de espessura e pesar mais de 3 kg. Por outro lado, temos os ultrafinos, como os Ultrabooks da Intel. Estes trazem um design mais fino e leve, focando na portabilidade. Naturalmente, traziam um comprometimento: processadores de baixa voltagem (mais sobre o assunto em Processador com mais núcleos ou clock maior. O que é melhor?), além de comumente não trazerem uma GPU dedicada.  Ou seja, nada de jogos em suas configurações máximas. Será que não dá para reunir o melhor dos dois mundos?

nvidia geforce gtx max-q

A NVIDIA tomou uma iniciativa a respeito, e vamos conhecer um pouco mais sobre ela neste artigo.

Com vocês: o NVIDIA Max-Q Design

Anunciado durante a Computex 2017, feira de tecnologia que ocorre anualmente em Taipei (Taiwan), o Max-Q Design pode ser resumido em uma simples expressão: engenharia de ponta. Não temos aqui uma nova geração de processadores Intel ou de GPUs da NVIDIA, mas sim uma nova abordagem para fazer com que as gerações atuais e posteriores possam trabalhar com seu pico de eficiência.

NVIDIA Max-Q

Um dos grandes responsáveis pela possibilidade do Max-Q Design é a própria série 10 de placas de vídeo da NVIDIA. Como exploramos em nosso artigo dedicado sobre o assunto, esta é a primeira geração que não diferencia os chips de desktops e notebooks. Isso ocorreu graças às melhorias internas e à redução da litografia. Um grande ganho para os notebooks, que podem agora ter uma potência proporcional à oferecida pelos desktops.

A ideia da NVIDIA não é parar por aí, e sim dar o próximo passo: ajudar fabricantes a projetar modelos que não apenas sejam tão poderosos quanto desktops, mas também permitir que os modelos sejam tão finos quanto os ultrafinos. Como? Através de uma combinação de controladores de tensão, posicionamento e potência do sistema de refrigeração, com novas soluções, otimização do software e driver e, principalmente, um gerenciamento interno da própria GPU.

NVIDIA Max-Q notebook gamer

Isso tudo com um ganho extra: uma redução do ruído dos coolers, graças ao WhisperMode, um recurso independente do Max-Q Design, mas que funciona combinado com ele. Inicialmente projetado para os notebooks  gamer que trazem os chips GTX 1060, GTX 1070 e GTX 1080 da NVIDIA, tanto o Max-Q Design quanto o WhisperMode já podem ser encontrados em produtos da Avell, como o Titanium W1570 Lite.

Chassi de alumínio e 3 coolers

Projetado para usuários profissionais, o Titanium W1570 Lite incorpora os elementos que vimos acima, trazendo uma poderosa GTX 1070 em um chassi com apenas 18 milímetros de espessura e 1,9 kg de peso. Além das mudanças nos componentes internos, o Titanium W1570 Lite conta com um chassi de alumínio, que oferece uma eficiência maior na dissipação de calor, e 3 poderosos coolers. Além de, claro, um poderoso fluxo de ar, como podemos ver na parte de baixo do modelo.

TITANIUM W1570 LITE NVIDIA Max-Q

TITANIUM W1570 LITE: 3 coolers, GTX 1070, chassi de alumínio e apenas 1,8 cm de espessura.

TITANIUM W1570 LITE: NVIDIA Max-Q

TITANIUM W1570 LITE: 3 coolers, GTX 1070, chassi de alumínio e apenas 1,8 cm de espessura.

TITANIUM W1570 LITE: 3 coolers,

TITANIUM W1570 LITE: 3 coolers, GTX 1070, chassi de alumínio e apenas 1,8 cm de espessura.

Além da poderosa GTX 1070 com 8 GB de memória dedicada, o Titanium W1570 Lite conta com o Core i7-7700HQ, 16 GB de memória RAM DDR4 rodando a 2400 MHz e SSD mesmo na configuração mais básica. Oferece hardware de sobra para rodar os games mais modernos, com potência suficiente para rodar os programas de criação multimídia mais exigentes do mercado. Entre eles, os projetados pela Adobe, Autodesk e Rhinoceros.

Ou seja, respondendo a pergunta que fizemos no começo do artigo: sim, é possível ter o melhor dos dois mundos. E ele já está disponível no site da Avell.

Fontes: NVIDIA, GeForce 1 e 2, Avell

O post NVIDIA Max-Q Design: um novo design para os notebooks gamers apareceu primeiro em Notebooks Avell.

Viewing all 229 articles
Browse latest View live