Nvidia (todas as informações)

Índice:
- História da Nvidia
- Nvidia GeForce e Nvidia Pascal, dominando os jogos
- Inteligência artificial e arquitetura Volta
- O futuro da Nvidia passa por Turing e Ampere
- NVIDIA G-Sync, encerrando problemas de sincronização de imagem
A Nvidia Corporation, mais conhecida como Nvidia, é uma empresa americana de tecnologia incorporada em Delaware e sediada em Santa Clara, Califórnia. A Nvidia projeta unidades de processamento gráfico para os mercados de videogame e profissionais, bem como um sistema de unidade de chip (SoC) para o mercado de computação automotiva e móvel. Sua principal linha de produtos, a GeForce, está em concorrência direta com os produtos Radeon da AMD.
Recomendamos a leitura dos nossos melhores guias de hardware e componentes para PC:
Além de fabricar GPUs, a Nvidia fornece recursos de processamento paralelo em todo o mundo para pesquisadores e cientistas, permitindo que eles executem aplicativos de alto desempenho com eficiência. Mais recentemente, ingressou no mercado de computação móvel, onde produz processadores móveis Tegra para consoles de videogame, tablets e sistemas de navegação e entretenimento de veículos autônomos. Isso levou a Nvidia a se tornar uma empresa focada em quatro mercados desde 2014 : jogos, visualização profissional, data centers e inteligência artificial e automóveis.
Índice de conteúdo
História da Nvidia
A Nvidia foi fundada em 1993 por Jen-Hsun Huang, Chris Malachowsky e Curtis Priem. Os três co-fundadores da empresa levantaram a hipótese de que a direção certa para a computação passaria pelo processamento acelerado por gráficos, acreditando que esse modelo de computação poderia resolver problemas que a computação de uso geral não conseguiria resolver. Eles também observaram que os videogames são alguns dos problemas mais desafiadores em termos de computação e que têm volumes de vendas incrivelmente altos.
De uma pequena empresa de videogame a um gigante de inteligência artificial
A empresa nasceu com um capital inicial de US $ 40.000, inicialmente não tinha nome, e os co-fundadores nomearam todos os seus arquivos NV, como no "próximo lançamento". A necessidade de incorporar a empresa fez com que os co-fundadores revisassem todas as palavras com essas duas letras, o que os levou a "invidia", a palavra latina que significa "inveja".
O lançamento do RIVA TNT em 1998 consolidou a reputação da Nvidia de desenvolver adaptadores gráficos. No final de 1999, a Nvidia lançou a GeForce 256 (NV10), que introduziu a transformação e iluminação (T&L) no nível do consumidor em hardware 3D. Operando a 120 MHz e apresentando quatro linhas de pixels, implementou aceleração de vídeo avançada, compensação de movimento e mistura de sub-imagem de hardware. A GeForce superou os produtos existentes por uma ampla margem.
Devido ao sucesso de seus produtos, a Nvidia ganhou o contrato para desenvolver o hardware gráfico para o console Xbox da Microsoft, ganhando um adiantamento de US $ 200 milhões à Nvidia. No entanto, o projeto levou muitos de seus melhores engenheiros de outros projetos. No curto prazo, isso não importou, e o GeForce2 GTS foi lançado no verão de 2000. Em dezembro de 2000, a Nvidia chegou a um acordo para adquirir os ativos intelectuais de seu único rival 3dfx, pioneiro em tecnologia gráfica 3D para o consumidor. que liderou o campo de meados da década de 1990 a 2000. O processo de aquisição terminou em abril de 2002.
Em julho de 2002, a Nvidia adquiriu a Exluna por uma quantia não revelada de dinheiro. Exluna foi responsável por criar várias ferramentas de renderização de software. Mais tarde, em agosto de 2003, a Nvidia adquiriu a MediaQ por aproximadamente US $ 70 milhões. E também adquiriu a iReady, fornecedora de soluções de descarregamento TCP / IP e iSCSI de alto desempenho em 22 de abril de 2004.
Tão grande foi o sucesso da Nvidia no mercado de videogames que, em dezembro de 2004, foi anunciado que ajudaria a Sony no design do processador gráfico PlayStation 3 RSX, o console de videogame de nova geração da empresa japonesa que teve a difícil tarefa de repetir o sucesso de seu antecessor, o mais vendido da história.
Em dezembro de 2006, a Nvidia recebeu citações do Departamento de Justiça dos EUA. Com relação a possíveis violações antitruste na indústria de placas gráficas. Naquela época, a AMD havia se tornado sua grande rival, após a compra da ATI por esta. Desde então, a AMD e a Nvidia são as únicas fabricantes de placas gráficas de videogame, sem esquecer os chips integrados da Intel.
A Forbes nomeou a Nvidia como a melhor empresa do ano em 2007, citando as conquistas alcançadas nos últimos cinco anos. Em 5 de janeiro de 2007, a Nvidia anunciou que havia concluído a aquisição da PortalPlayer, Inc, e em fevereiro de 2008, a Nvidia adquiriu a Ageia, desenvolvedora do mecanismo de física PhysX e da unidade de processamento físico executando esse mecanismo. A Nvidia anunciou que planejava integrar a tecnologia PhysX em seus futuros produtos de GPU GeForce.
A Nvidia enfrentou grandes dificuldades em julho de 2008, quando recebeu uma queda na receita de aproximadamente US $ 200 milhões depois que foi relatado que determinados chipsets e GPUs móveis produzidos pela empresa apresentavam taxas de falha anormais devido a defeitos de fabricação. Em setembro de 2008, a Nvidia tornou-se objeto de uma ação coletiva pelos afetados, alegando que as GPUs defeituosas haviam sido incorporadas a certos modelos de notebooks fabricados pela Apple, Dell e HP. A novela terminou em setembro de 2010, quando a Nvidia chegou a um acordo de que os proprietários dos laptops afetados seriam reembolsados pelo custo dos reparos ou, em alguns casos, pela substituição do produto.
Em novembro de 2011, a Nvidia lançou seu sistema de chips ARG Tegra 3 para dispositivos móveis depois de apresentá-lo inicialmente no Mobile World Congress. A Nvidia afirmou que o chip apresentava o primeiro CPU móvel quad-core. Em janeiro de 2013, a Nvidia introduziu o Tegra 4, bem como o Nvidia Shield, um console de jogos portátil baseado no Android e equipado com o novo processador.
Em 6 de maio de 2016, a Nvidia apresentou as placas gráficas GeForce GTX 1080 e 1070, a primeira baseada na nova microarquitetura Pascal. A Nvidia afirmou que ambos os modelos superaram o modelo Titan X, baseado em Maxwell. Esses cartões incorporam a memória GDDR5X e GDDR5, respectivamente, e usam um processo de fabricação de 16 nm. A arquitetura Pascal também suporta um novo recurso de hardware conhecido como projeção múltipla simultânea (SMP), projetado para melhorar a qualidade da renderização de vários monitores e realidade virtual. Pascal permitiu a fabricação de laptops que atendem ao padrão de design Max-Q da Nvidia.
Em maio de 2017, a Nvidia anunciou uma parceria com a Toyota Motor Corp sob a qual este último usará a plataforma de inteligência artificial da série X da Drive da Nvidia para seus veículos autônomos. Em julho de 2017, a Nvidia e a gigante chinesa de buscas Baidu, Inc. anunciaram uma poderosa parceria de IA que inclui computação em nuvem, direção autônoma, dispositivos de consumo e a estrutura de IA da Baidu, PaddlePaddle.
Nvidia GeForce e Nvidia Pascal, dominando os jogos
GeForce é o nome da marca para placas gráficas com base em unidades de processamento gráfico (GPUs) criadas pela Nvidia a partir de 1999. Até o momento, a série GeForce conhece dezesseis gerações desde o seu início. As versões voltadas para usuários profissionais desses cartões têm o nome de Quadro e incluem alguns recursos diferenciadores no nível do driver. A concorrência direta da GeForce é a AMD com suas placas Radeon.
Pascal é o nome de código para a mais recente microarquitetura de GPU desenvolvida pela Nvidia que entrou no mercado de videogames, como sucessora da arquitetura Maxwell anterior. A arquitetura Pascal foi introduzida pela primeira vez em abril de 2016 com o lançamento do Tesla P100 para servidores em 5 de abril de 2016. Atualmente, o Pascal é usado principalmente na série GeForce 10, com as GeForce GTX 1080 e GTX sendo As primeiras placas de vídeo game 1070 foram lançadas com essa arquitetura em 17 de maio de 2016 e 10 de junho de 2016, respectivamente. O Pascal é fabricado usando o processo FinFET de 16nm da TSMC, permitindo oferecer eficiência e desempenho de energia muito superiores aos do Maxwell, que foi fabricado no FinFET de 28nm.
A arquitetura Pascal é organizada internamente no que é conhecido como streaming multiprocessor ( SM), unidades funcionais compostas de 64 núcleos CUDA, que por sua vez são divididos em dois blocos de processamento de 32 núcleos CUDA cada deles e acompanhados por um buffer de instruções, um planejador de urdidura, 2 unidades de mapeamento de textura e 2 unidades de expedição. Essas unidades SM são equivalentes às UCs da AMD.
A arquitetura Pascal da Nvidia foi projetada para ser a mais eficiente e avançada do mundo dos jogos. A equipe de engenharia da Nvidia se esforçou bastante para criar uma arquitetura de GPU capaz de velocidades de clock muito altas, mantendo um consumo de energia reduzido. Para conseguir isso, um design muito cuidadoso e otimizado foi escolhido em todos os seus circuitos, resultando em Pascal capaz de atingir uma frequência 40% maior que a Maxwell, número muito maior do que o processo teria permitido aos 16 nm sem todas as otimizações no nível do design.
A memória é um elemento essencial no desempenho de uma placa de vídeo. A tecnologia GDDR5 foi anunciada em 2009 e, portanto, já se tornou obsoleta para as placas de vídeo mais poderosas da atualidade. Por esse motivo, o Pascal suporta a memória GDDR5X, que era o padrão de interface de memória mais rápido e avançado da história no momento do lançamento dessas placas gráficas, atingindo velocidades de transferência de até 10 Gbps ou quase 100 picossegundos entre bits. de dados. A memória GDDR5X também permite que a placa gráfica consuma menos energia em comparação com o GDDR5, já que a tensão operacional é de 1, 35V, em comparação com 1, 5V ou mais do que os chips GDDR5 mais rápidos precisam. Essa redução de tensão se traduz em uma frequência operacional 43% maior com o mesmo consumo de energia.
Outra inovação importante do Pascal vem das técnicas de compactação de memória sem perda de desempenho, o que reduz a demanda de largura de banda pela GPU. Pascal inclui a quarta geração da tecnologia de compressão de cores delta. Com a compactação de cores delta, a GPU analisa cenas para calcular os pixels cujas informações podem ser compactadas sem sacrificar a qualidade da cena. Embora a arquitetura Maxwell não tenha sido capaz de compactar dados relacionados a alguns elementos, como vegetação e partes do carro no jogo Project Cars, Pascal é capaz de compactar a maioria das informações sobre esses elementos, sendo muito mais eficiente do que Maxwell. Como conseqüência, o Pascal é capaz de reduzir significativamente o número de bytes que precisam ser extraídos da memória. Essa redução de bytes se traduz em 20% adicionais da largura de banda efetiva, resultando em um aumento de 1, 7 vezes a largura de banda com o uso da memória GDDR5X em comparação à arquitetura GDDR5 e Maxwell.
Pascal também oferece melhorias importantes em relação à computação assíncrona, algo muito importante, pois atualmente as cargas de trabalho são muito complexas. Graças a essas melhorias, a arquitetura Pascal é mais eficiente na distribuição da carga entre todas as suas diferentes unidades SM, o que significa que praticamente não existem núcleos CUDA não utilizados. Isso permite que a otimização da GPU seja muito maior, aproveitando melhor todos os recursos que ela possui.
A tabela a seguir resume os recursos mais importantes de todas as placas GeForce baseadas em Pascal.
CARTÕES GRÁFICOS PASCAL NVIDIA GEFORCE |
||||||
Núcleos CUDA | Frequências (MHz) | Memória | Interface de memória | Largura de banda da memória (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 bits | 48. | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8GB GDDR5 | 256 bit | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8GB GDDR5 | 256 bit | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 bit | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 bit | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 bit | 547 | 250 |
Inteligência artificial e arquitetura Volta
As GPUs da Nvidia são amplamente usadas nos campos de aprendizado profundo, inteligência artificial e análise acelerada de grandes quantidades de dados. A empresa desenvolveu um aprendizado profundo baseado na tecnologia GPU, a fim de usar a inteligência artificial para lidar com problemas como detecção de câncer, previsão do tempo e veículos autônomos, como o famoso Tesla.
O objetivo da Nvidia é ajudar as redes a aprender a "pensar ". As GPUs da Nvidia funcionam excepcionalmente bem para tarefas de aprendizado profundo porque foram projetadas para computação paralela e funcionam bem para lidar com as operações de vetor e matriz que prevalecem no aprendizado profundo. As GPUs da empresa são usadas por pesquisadores, laboratórios, empresas de tecnologia e empresas. Em 2009, a Nvidia participou do chamado big bang para o aprendizado profundo, pois as redes neurais de aprendizado profundo foram combinadas com as unidades de processamento gráfico da empresa. Nesse mesmo ano, o Google Brain usou as GPUs da Nvidia para criar redes neurais profundas capazes de aprendizado de máquina, onde Andrew Ng determinou que eles poderiam aumentar a velocidade dos sistemas de aprendizado profundo em 100 vezes.
Em abril de 2016, a Nvidia introduziu o supercomputador DGX-1 baseado em cluster de 8 GPU para aprimorar a capacidade dos usuários de usar o aprendizado profundo combinando GPUs com software projetado especificamente. A Nvidia também desenvolveu as máquinas virtuais Nvidia Tesla K80 e P100 baseadas em GPU, disponíveis através do Google Cloud, que o Google instalou em novembro de 2016. A Microsoft adicionou servidores baseados na tecnologia GPU da Nvidia em uma prévia de sua série N, baseado no cartão Tesla K80. A Nvidia também fez parceria com a IBM para criar um kit de software que aumenta os recursos de IA de suas GPUs. Em 2017, as GPUs da Nvidia também foram colocadas online no RIKEN Center for the Advanced Intelligence Project da Fujitsu.
Em maio de 2018, pesquisadores do departamento de inteligência artificial da Nvidia perceberam a possibilidade de um robô aprender a fazer um trabalho simplesmente observando a pessoa fazendo o mesmo trabalho. Para isso, eles criaram um sistema que, após uma breve revisão e teste, agora pode ser usado para controlar os robôs universais da próxima geração.
Volta é o codinome da microarquitetura de GPU mais avançada desenvolvida pela Nvidia, é a arquitetura sucessora de Pascal e foi anunciada como parte de uma futura ambição de roteiro em março de 2013. A arquitetura recebeu o nome de Alessandro Volta, o físico, químico e inventor da bateria elétrica. A arquitetura de Volta não atingiu o setor de jogos, embora o tenha feito com a placa de vídeo Nvidia Titan V, focada no setor de consumo e que também pode ser usada em equipamentos de jogos.
Esta Nvidia Titan V é uma placa gráfica baseada em GV100 e três pilhas de memória HBM2, tudo em um pacote. O cartão possui um total de 12 GB de memória HBM2 que funciona através de uma interface de memória de 3072 bits. Sua GPU contém mais de 21 milhões de transistores, 5.120 núcleos CUDA e 640 núcleos tensores para fornecer um desempenho de 110 TeraFLOPS em aprendizado profundo. Suas frequências operacionais são de 1200 MHz base e 1455 MHz no modo turbo, enquanto a memória trabalha em 850 MHz, oferecendo uma largura de banda de 652, 8 GB / s. Foi recentemente anunciada uma versão do CEO Edition que aumenta a memória em até 32 GB.
A primeira placa gráfica fabricada pela Nvidia com a arquitetura Volta foi o Tesla V100, que faz parte do sistema Nvidia DGX-1. O Tesla V100 utiliza o núcleo GV100, lançado em 21 de junho de 2017. A GPU Volta GV100 é construída em um processo de fabricação de 12 nm FinFET , com 32 GB de memória HBM2 capaz de fornecer até 900 GB / s de largura de banda.
Volta também traz à vida o mais recente Nvidia Tegra SoC, chamado Xavier, anunciado em 28 de setembro de 2016. Xavier Contém 7 bilhões de transistores e 8 núcleos ARMv8 personalizados, juntamente com uma GPU Volta com 512 núcleos CUDA e um TPU de código aberto (Tensor Processing Unit) chamado DLA (Deep Learning Accelerator). Xavier pode codificar e decodificar vídeo em resolução 8K Ultra HD (7680 × 4320 pixels) em tempo real, todos com um TDP de 20 a 30 watts e um tamanho de matriz estimado em cerca de 300 mm2, graças ao 12 processo de fabricação. nm FinFET.
A arquitetura do Volta é caracterizada por ser a primeira a incluir o Núcleo Tensor, núcleos especialmente projetados para oferecer desempenho muito superior em tarefas de aprendizado profundo em comparação aos núcleos regulares CUDA. Um núcleo tensor é uma unidade que multiplica duas matrizes FP16 4 × 4 e depois adiciona uma terceira matriz FP16 ou FP32 ao resultado, usando operações de adição e multiplicação mescladas, obtendo um resultado FP32 que pode opcionalmente ser rebaixado para um resultado FP16. Os núcleos tensores destinam-se a acelerar o treinamento da rede neural.
Volta também se destaca por incluir a interface proprietária avançada NVLink, que é um protocolo de comunicação baseado em fio para comunicações de semicondutores de curto alcance desenvolvido pela Nvidia, que pode ser usado para transferências de código de dados e controle em sistemas de processadores baseados em CPU e GPU e aqueles baseados apenas na GPU. O NVLink especifica uma conexão ponto a ponto com taxas de dados de 20 e 25 Gb / s por faixa de dados e por endereço na primeira e na segunda versões. As taxas totais de dados nos sistemas do mundo real são de 160 e 300 GB / s para a soma total dos fluxos de dados de entrada e saída. Os produtos NVLink introduzidos até o momento concentram-se no espaço de aplicativos de alto desempenho. O NVLINK foi anunciado pela primeira vez em março de 2014 e usa uma interconexão de sinalização de alta velocidade proprietária desenvolvida e desenvolvida pela Nvidia.
A tabela a seguir resume os recursos mais importantes dos cartões baseados em Volta:
CARTÕES GRÁFICOS NVIDIA VOLTA |
||||||||
Núcleos CUDA | Tensor de núcleo | Frequências (MHz) | Memória | Interface de memória | Largura de banda da memória (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32GB HBM2 | 4.096 bit | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3.072 bit | 652 | 250 | |
GeForce Titan V Edição CEO | 5120 | 640 | 1200/1455 | 32GB HBM2 | 4.096 bit | 900 | 250 |
O futuro da Nvidia passa por Turing e Ampere
As duas futuras arquiteturas da Nvidia serão Turing e Ampere, de acordo com todos os rumores que surgiram até o momento, é possível que, quando você ler este post, uma delas já tenha sido anunciada oficialmente. Por enquanto, nada se sabe ao certo sobre essas duas arquiteturas, embora se diga que Turing seria uma versão simplificada de Volta para o mercado de jogos, na verdade, espera-se que chegue com o mesmo processo de fabricação a 12 nm.
Ampere parece a arquitetura sucessora de Turing, embora também possa ser a sucessora de Volta no setor de inteligência artificial. Absolutamente nada se sabe sobre isso, embora pareça lógico esperar que chegue fabricado a 7 nm. Os rumores sugerem que a Nvidia anunciará seus novos cartões GeForce na Gamecom no próximo mês de agosto. Só então deixaremos dúvidas sobre o que Turing ou Ampere será, se eles realmente existirem.
NVIDIA G-Sync, encerrando problemas de sincronização de imagem
O G-Sync é uma tecnologia proprietária de sincronização adaptativa desenvolvida pela Nvidia, cujo objetivo principal é eliminar a quebra de tela e a necessidade de alternativas na forma de software como o Vsync. O G-Sync elimina o rasgo da tela, forçando-o a se adaptar à taxa de quadros do dispositivo de saída, da placa gráfica, em vez do dispositivo de saída sendo adaptado à tela, resultando em rasgos na imagem. a tela.
Para que um monitor seja compatível com G-Sync, ele deve conter um módulo de hardware vendido pela Nvidia. A AMD (Advanced Micro Devices) lançou uma tecnologia semelhante para monitores, chamada FreeSync, que tem a mesma função do G-Sync, mas não requer nenhum hardware específico.
A Nvidia criou uma função especial para evitar a possibilidade de um novo quadro estar pronto enquanto desenha uma duplicata na tela, algo que pode gerar atraso e / ou gaguejar, o módulo antecipa a atualização e aguarda a conclusão do próximo quadro. A sobrecarga de pixel também se torna enganosa em um cenário de atualização não fixo, e as soluções prevêem quando a próxima atualização ocorrerá; portanto, o valor do overdrive deve ser implementado e ajustado para cada painel, a fim de evitar efeitos fantasmas.
O módulo é baseado em um FPGA da família Altera Arria V GX com elementos lógicos de 156K, 396 blocos DSP e 67 canais LVDS. É produzido no processo TSMC 28LP e é combinado com três chips para um total de 768 MB de DRAM DDR3L, para obter uma certa largura de banda. O FPGA usado também possui uma interface LVDS para controlar o painel do monitor. Este módulo destina-se a substituir alpinistas comuns e a ser facilmente integrado pelos fabricantes de monitores, que precisam apenas cuidar da placa de circuito da fonte de alimentação e das conexões de entrada.
O G-Sync enfrentou algumas críticas devido à sua natureza proprietária e ao fato de ainda ser promovido quando existem alternativas gratuitas, como o padrão VESA Adaptive-Sync, que é um recurso opcional do DisplayPort 1.2a. Enquanto o FreeSync da AMD é baseado no DisplayPort 1.2a, o G-Sync requer um módulo fabricado pela Nvidia, em vez do escalador usual na tela para que as placas gráficas da Nvidia GeForce funcionem corretamente, sendo compatível com as arquiteturas Kepler, Maxwell, Pascal e microarquiteturas. Volta.
O próximo passo foi dado com a tecnologia G-Sync HDR, que como o próprio nome sugere, adiciona recursos HDR para melhorar significativamente a qualidade da imagem do monitor. Para tornar isso possível, um salto significativo no hardware teve que ser feito. Esta nova versão G-Sync HDR usa um Intel Altera Arria 10 GX 480 FPGA, um processador altamente avançado e altamente programável que pode ser codificado para uma ampla gama de aplicações, acompanhado por 3 GB de memória DDR4 de 2400 MHz fabricada pela Micron. Isso torna o preço desses monitores mais caro.
Aqui termina nosso post sobre tudo o que você precisa saber sobre a Nvidia. Lembre-se de que você pode compartilhá-lo nas redes sociais para alcançar mais usuários. Você também pode deixar um comentário se tiver alguma sugestão ou algo a acrescentar.
Motorola moto g: todas as informações

Tudo sobre o Motorola Moto G: características técnicas, imagens, bateria, câmera, sistema operacional, disponibilidade e preço.
Nvidia rtx (todas as informações)

Já temos conosco as novas placas gráficas NVIDIA RTX. Do modelo principal: NVIDIA RTX 2080 Ti, ao modelo para a maioria dos jogadores em 4K:
Vid Nvidia quadro 【todas as informações】?

Todas as informações sobre placas gráficas profissionais da Nvidia Quadro: características, design, desempenho, vantagens e desvantagens ✅