Spécifications Geforce 8800 gts. Cartes vidéo. Tests du jeu : Hitman : Blood Money

Mise à jour : nous avons décidé de compléter la revue initiale par des informations théoriques supplémentaires, des tableaux comparatifs, ainsi que les résultats des tests du laboratoire américain THG, où la GeForce 8800 GTS "junior" était également impliquée. Dans l'article mis à jour, vous trouverez également des tests de qualité.

GeForce 8800 GTX est au-dessus de la concurrence.

Vous avez probablement entendu parler de DirectX 10 et des merveilles que la nouvelle API promet sur DX9. Sur Internet, vous pouvez trouver des captures d'écran de jeux encore en développement. Mais jusqu'à présent, il n'existait aucune carte vidéo prenant en charge le DX10 sur le marché. Et nVidia a été le premier à corriger cette faille. Bienvenue à la sortie des cartes graphiques DirectX 10 sous la forme de nVidia GeForce 8800 GTX et 8800 GTS !

Une seule architecture unifiée sera en mesure de tirer davantage parti des unités de shader, car elles peuvent désormais être utilisées plus efficacement qu'avec une disposition fixe. Une nouvelle ère dans l'infographie est ouverte par la GeForce 8800 GTX avec 128 unités de shader unifiées et la GeForce 8800 GTS avec 96 unités de ce type. L'époque des pipelines de pixels est enfin révolue. Mais regardons de plus près les nouvelles cartes.

80 cœurs graphiques sont affichés sur le substrat. Le nouveau GPU promet d'offrir deux fois les performances de la GeForce 7900 GTX (G71). 681 millions de transistors donnent une énorme zone de matrice, mais lorsqu'on lui a posé des questions à ce sujet, le PDG de nVidia, Jen-Hsun Huang, a répondu : « Si mes ingénieurs disaient qu'ils pouvaient doubler les performances en doublant la zone de matrice, je n'aurais même pas douté ! »

L'expérience a montré que doubler la surface ne double pas du tout les performances, mais NVIDIA semble avoir trouvé le bon équilibre entre les avancées technologiques et la mise en œuvre des puces à base de silicium.

Les GeForce 8800 GTX et 8800 GTS sont entièrement conformes aux normes DX10 et Shader Model 4.0, à diverses normes de stockage et de transfert de données, prennent en charge les shaders géométriques et Stream Out. Comment nVidia a-t-il implémenté tout cela ?

Pour commencer, nVidia s'est éloigné de la conception fixe que l'industrie utilisait depuis 20 ans en faveur d'un noyau de shader unifié.


Plus tôt, nous avons montré des diapositives similaires illustrant la tendance à augmenter la puissance des pixel shaders. Nvidia est bien conscient de cette tendance et s'oriente vers l'équilibrage des besoins informatiques en mettant en œuvre des shaders unifiés par lesquels transitent les flux de données. Cela donne une efficacité et une productivité maximales.

NVIDIA déclare : "L'équipe de développement GeForce 8800 était bien consciente que les jeux 3D DirectX 10 haut de gamme nécessiteraient beaucoup de puissance matérielle pour calculer les shaders. Alors que DirectX 10 stipule un jeu d'instructions unifié, la norme n'exige pas un shader GPU unifié. Mais les ingénieurs de la GeForce 8800 pensaient que c'est l'architecture de shader GPU unifiée qui équilibrera efficacement la charge des shaders DirectX 10, améliorant l'efficacité architecturale du GPU et allouant correctement la puissance disponible.

GeForce 8800 GTX | 128 processeurs de flux SIMD



Le cœur du processeur tourne à 575 MHz pour la GeForce 8800 GTX et à 500 MHz pour la GeForce 8800 GTS. Si le reste du noyau tourne à 575 MHz (ou 500 MHz), alors le noyau du shader utilise sa propre horloge. La GeForce 8800 GTX tourne à 1350 GHz, tandis que la 8800 GTS tourne à 1200 GHz.

Chaque élément de nuanceur de base est appelé un processeur de streaming. La GeForce 8800 GTX utilise 16 blocs de huit de ces éléments. En conséquence, nous obtenons 128 processeurs de flux. Semblable à la conception des ATi R580 et R580 +, où des unités de pixel shader sont présentes, nVidia prévoit d'ajouter et de supprimer des unités à l'avenir. C'est d'ailleurs ce que l'on observe avec 96 processeurs de flux dans la GeForce 8800 GTS.



Cliquez sur l'image pour agrandir.

GeForce 8800 GTX | tableau de comparaison des spécifications

Auparavant, Nvidia ne pouvait pas faire d'anticrénelage plein écran avec un éclairage HDR en même temps, mais c'est de l'histoire ancienne. Chaque unité d'opération raster (ROP) prend en charge le mixage de framebuffer. Ainsi, avec l'anticrénelage à échantillonnage multiple, les cibles de rendu FP16 et FP32 peuvent être utilisées. Sous D3D10, l'accélération des couleurs et Z dans les ROP peut être utilisée avec jusqu'à huit cibles de rendu multiples, ainsi qu'avec les nouvelles technologies de compression.

La GeForce 8800 GTX peut remplir 64 textures par horloge, et à 575 MHz on obtient 36,8 milliards de textures par seconde (GeForce 8800 GTS = 32 milliards/s). La GeForce 8800 GTX dispose de 24 opérations de trame (ROP) et lorsque la carte tourne à 575 MHz, le taux de remplissage de pixels maximal est de 13,8 gigapixels/s. La version GeForce 880GTS dispose de 20 ROP et d'un taux de remplissage maximal de 10 gigapixels/s à 500 MHz.

Spécifications NVidia GeForce
8800GTX 8800GTS 7950GX2 7900GTX 7800GTX512 7800GTX
Technologie de processus (nm) 90 90 90 90 110 110
Coeur G80 G80 G71 G71 G70 G70
Nombre de GPU 1 1 2 1 1 1
Transistors par cœur (million) 681 681 278 278 302 302
Fréquence du bloc de sommet (MHz) 1350 1200 500 700 550 470
Fréquence centrale (MHz) 575 500 500 650 550 430
Fréquence mémoire (MHz) 900 600 600 800 850 600
Fréquence de mémoire effective (MHz) 1800 1200 1200 1600 1700 1200
Nombre de blocs de sommets 128 96 16 8 8 8
Nombre de blocs de pixels 128 96 48 24 24 24
Numéro de ROP 24 20 32 16 16 16
Largeur du bus mémoire (bits) 384 320 256 256 256 256
Mémoire GPU (Mo) 768 640 512 512 512 256
Bande passante de la mémoire GPU (Go / s) 86,4 48 38,4 51,2 54,4 38,4
Sommets / s (millions) 10 800 7200 2000 1400 1100 940
Débit de pixels (ROP x fréquence, en milliards / s) 13,8 10 16 10,4 8,8 6,88
Bande passante de texture (nombre de pipelines de pixels x fréquence, en milliards / s) 36,8 32 24 15,6 13,2 10,32
RAMDAC (MHz) 400 400 400 400 400 400
Pneu PCI Express PCI Express PCI Express PCI Express PCI Express PCI Express

Faites attention à la largeur du bus mémoire. En regardant le schéma de la page précédente, le GPU GeForce 8800 GTX utilise six partitions de mémoire. Chacun d'eux est équipé d'une interface mémoire 64 bits, ce qui donne un total de 384 bits de large. 768 Mo de mémoire GDDR3 sont connectés au sous-système de mémoire, qui est construit sur une connexion croisée haute vitesse, comme un GPU GeForce 7x. Cette interconnexion prend en charge les mémoires DDR1, DDR2, DDR3, GDDR3 et GDDR4.

La GeForce 8800 GTX utilise de la mémoire GDDR3 avec une fréquence par défaut de 900 MHz (la version GTS tourne à 800 MHz). Avec une largeur de 384 bits (48 octets) et une bande passante de 900 MHz (1800 MHz efficace DDR), c'est un énorme 86,4 Go / s. Et 768 Mo de mémoire vous permettent de stocker des modèles et des textures beaucoup plus complexes, avec une résolution et une qualité supérieures.

GeForce 8800 GTX | nVidia élimine ATi


Cliquez sur l'image pour agrandir.

Nous avons de bonnes et de mauvaises nouvelles. Les bons sont plus rapides que les rapides, ils sont très silencieux et ils ont tellement de choses techniques intéressantes pour lesquelles il n'y a même pas encore de logiciel. La mauvaise nouvelle est qu'ils ne sont pas disponibles à la vente. Eh bien, oui, il y a toujours quelque chose qui ne va pas avec le nouveau matériel. Sparkle vend ces cartes 635 euros. On s'habitue déjà à de tels prix pour du matériel haut de gamme.

La planche mesure 27 centimètres de long, vous ne pourrez donc pas l'installer dans tous les cas. Si votre ordinateur dispose de disques durs situés directement derrière les emplacements PCIe, l'installation d'une GeForce 8800 GTX sera probablement une tâche délicate. Bien sûr, les disques peuvent toujours être déplacés dans la baie de 5 pouces via l'adaptateur, mais il faut admettre qu'il n'y a pas grand-chose d'agréable dans le problème lui-même.


Cliquez sur l'image pour agrandir.

La mise en œuvre technique n'est pas de quoi se moquer. c'est le meilleur matériel que vous pouvez acheter comme cadeau pour votre PC pour la nouvelle année. Pourquoi la GeForce 8800 GTX attire-t-elle autant l'attention du public Internet ? Élémentaire - il s'agit de performances record. Ainsi, dans Half-Life 2: Episode 1, le nombre d'images par seconde sur la GeForce 8800 GTX à 1600x1200 est jusqu'à 60% supérieur à celui de la famille haut de gamme Radeon X1000 (1900 XTX et X1950 XTX).

Oblivion fonctionne incroyablement bien à tous les niveaux. Plus précisément, avec le rendu HDR activé dans Oblivion, la vitesse est d'au moins 30 ips. Titan Quest ne peut pas voir moins de 55 images par seconde. Parfois, vous vous demandez si la référence est suspendue ou si quelque chose est arrivé aux niveaux. L'activation de l'anticrénelage plein écran et du filtrage anisotrope n'affecte en rien la GeForce 8800.

C'est la carte graphique la plus rapide parmi tous les modèles sortis en 2006. Seule la Radeon X1950 XTX en mode couplé CrossFire rattrape la 8800 GTX à certains endroits. Donc, si vous demandez quelle carte Gothic 3, Dark Messiah et Oblivion ne ralentissent pas, voici la réponse - il s'agit d'une GeForce 8800 GTX.

GeForce 8800 GTX | Deux prises de courant

L'alimentation lui est fournie par deux fentes sur le dessus de la carte. Les deux sont nécessaires - si vous retirez le câble de celui de gauche, les performances 3D diminueront considérablement. Voulez-vous que vos voisins deviennent fous? Ensuite, sortez le bon - un grincement insensé qui commencera à se faire entendre du tableau fera l'envie du système d'alarme de votre voiture. La carte elle-même ne s'allume pas du tout. A noter que nVidia recommande d'utiliser une alimentation d'une capacité d'au moins 450 watts avec la GeForce 8800 GTX, et pour qu'il puisse y avoir 30 ampères sur la ligne 12 volts.


Sur une GeForce 8800 GTX, les deux prises d'alimentation doivent être connectées. Cliquez sur l'image pour agrandir.

Les deux prises de courant sont faciles à expliquer. Selon les spécifications PCI Express, un seul emplacement PCIe ne peut pas consommer plus de 75 watts de puissance. Notre unité de test consomme environ 180 watts uniquement en mode 2D. C'est 40 watts de plus que les Radeon X1900 XTX ou X1950 XTX. Eh bien, en mode 3D, la carte "mange" environ 309 watts. Les mêmes Radeon X1900 / 1950 XTX consomment dans ce cas de 285 à 315 watts. Il n'est pas clair pour nous ce dont la GeForce 8800 a besoin et utilise autant de puissance lorsqu'elle travaille sous Windows simple.

Deux autres emplacements sont réservés pour le mode SLI. Selon la documentation nVidia, une seule prise est requise pour le SLI. Le second n'est pas encore utilisé. Théoriquement, avec deux connecteurs, vous pouvez en connecter plus de deux dans un système multi-cartes. L'apparition du second connecteur peut également être liée à la popularité progressive des calculs de physique matérielle. Peut-être qu'une autre carte vidéo sera connectée via celle-ci afin de calculer les fonctions physiques dans le moteur de jeu. Ou peut-être parlons-nous de Quad SLI sur 4 cartes, ou quelque chose comme ça.


Un emplacement supplémentaire est désormais réservé au SLI. Mais avec la version actuelle du pilote, vous ne pouvez en utiliser qu'un. Cliquez sur l'image pour agrandir.

GeForce 8800 GTX | Système de refroidissement silencieux

La GeForce 8800 est équipée d'un refroidisseur à turbine de 80 mm très silencieux. Comme la Radeon X1950 XTX, elle est située tout au bout de la carte pour pousser l'air frais sur toute la surface de la GeForce 8800 puis vers l'extérieur. Une grille spéciale est installée à l'extrémité de la planche, qui libère de l'air chaud non seulement vers l'extérieur par le trou qui occupe la deuxième fente, mais aussi vers le bas, directement dans le boîtier. En général, le système est simple, mais il y a un certain nombre de points controversés.


L'air chaud est projeté par le trou du deuxième emplacement, mais une partie revient dans le boîtier par la grille sur le côté de la GeForce 8800 GTX. Cliquez sur l'image pour agrandir.

Si les emplacements PCIe de votre ordinateur sont proches et que, dans SLI, deux cartes s'adaptent de manière à ce que l'écart entre elles ne soit pas trop important, la température à cet endroit sera alors très décente. La carte inférieure sera en plus chauffée par la carte supérieure, à travers la même grille latérale du système de refroidissement. Eh bien, il vaut mieux ne même pas penser à ce qui se passera si vous installez trois cartes. Il s'avérera être un excellent radiateur électrique domestique. Par temps glacial, vous travaillerez près d'une fenêtre ouverte.

Lorsque la carte est installée seule, le système de refroidissement est impressionnant et remplit à cent pour cent. Comme les cartes GeForce 7900 GTX, elle fonctionne également silencieusement. Pendant les six heures de test, sous une charge élevée constante, la carte n'a jamais été entendue. Même si la carte mère est entièrement chargée de travail, le refroidisseur à vitesse moyenne supportera l'évacuation de la chaleur. Si vous approchez votre oreille de l'arrière de l'ordinateur, vous n'entendrez qu'un léger bruit, une sorte de bruissement silencieux.


Le refroidisseur de 80 mm est silencieux et ne fonctionne jamais à pleine capacité. Le système de refroidissement de la carte occupe deux emplacements. Cliquez sur l'image pour agrandir.

Le pilote ForceWare 96.94 dédié que nVidia a préparé pour la GeForce 8800 GTX ne génère pas de données de surveillance de la température. Avant la sortie de cette version, vous pouviez choisir entre l'interface classique et la nouvelle interface, mais le communiqué de presse 96.94 ne contient qu'une nouvelle version du panneau de paramètres. Si vous essayez d'ouvrir les paramètres de fréquence et de température, le pilote vous enverra sur le site Web nVidia afin que vous puissiez télécharger l'utilitaire Ntune. C'est dans celui-ci que ces fonctions sont configurées. Téléchargez l'archive de 30 Mo et installez-la. Au premier démarrage, on obtient un gel complet de l'ordinateur et de Windows.

Si, après l'installation de Ntune, vous sélectionnez le réglage de la fréquence et de la température dans le panneau des paramètres, une page d'informations spéciale s'ouvre, où les paramètres de la carte mère sont indiqués. Vous ne pouvez trouver aucun paramètre, c'est-à-dire des informations sur la fréquence et la température. Par conséquent, nous avons effectué des mesures de température de manière classique - à l'aide d'un thermomètre infrarouge. À pleine charge, les mesures ont montré une température de 71 degrés Celsius, tout en travaillant en mode 2D, la carte a été maintenue dans la plage de 52 à 54 degrés.

Espérons que nVidia sortira une version standard de ForceWare pour la GeForce 8800. L'interface de configuration classique est parfois plus pratique, de plus, elle affiche des informations sur la température, et à l'aide de coolbits, vous pouvez ajuster les fréquences. Le nouveau pilote, avec Ntune, occupe environ 100 mégaoctets et est segmenté en un nombre considérable d'onglets et de fenêtres. Ce n'est pas toujours pratique de travailler avec lui.


La puce GeForce 8800 GTX compte jusqu'à 681 millions de transistors, elle est fabriquée à l'aide de la technologie 90 nanomètres dans l'usine TSMC. Cliquez sur l'image pour agrandir.

La G80 GeForce 8800 GTX possède 681 millions de transistors. C'est deux fois plus que dans le noyau Conroe des processeurs Intel Core 2 Duo ou la puce GeForce 7. Le GPU de la carte vidéo tourne à 575 MHz. L'interface mémoire est de 384 bits et sert 768 mégaoctets. Pour la mémoire, nVidia a utilisé la GDDR3 haute vitesse, qui tourne à 900 MHz.

A titre de comparaison : la mémoire de la GeForce 7900 GTX tourne à 800 MHz, et celle de la GeForce 7950 GT à 700 MHz. Les cartes graphiques Radeon X1950 XTX utilisent une mémoire GDDR4 de 1000 MHz. La carte GeForce 8800 GTS a une fréquence core de 500 MHz, une capacité mémoire de 640 Mo avec une fréquence de 800 MHz.

Les résultats du benchmark montrent que l'anticrénelage plein écran et le filtrage anisotrope ne dégradent finalement pas les performances lorsqu'ils sont activés. Dans les jeux gourmands en ressources, comme Oblivion, vous deviez garder une trace de cela, mais maintenant vous pouvez tout activer au maximum. Les performances des nVidias précédents étaient telles que ces jeux ne fonctionnaient sans problème qu'à des résolutions allant jusqu'à 1024x768, tandis que le rendu HDR avec Pixel Shaders version 3 prenait une énorme quantité de ressources. Les cartes graphiques sont si puissantes que l'inclusion de 4xAA et 8xAF sans problème vous permet de jouer à des résolutions allant jusqu'à 1600x1200. La puce G80 prend en charge les paramètres d'anti-aliasing maximum de filtrage anisotrope 16x et 16x.


La GeForce 8800 GTX prend en charge l'anticrénelage 16x et le filtrage anisotrope.

Par rapport à l'ATI simple, la GeForce 8800 GTX n'a ​​pas de concurrente. Le nouveau nVidia peut désormais extraire le rendu HDR à l'aide de shaders tiers et de l'anti-aliasing. Le rendu HDR vous permet d'obtenir des reflets et des reflets extrêmes, simulant l'effet d'éblouissement lorsque vous sortez d'une pièce sombre dans une lumière vive. Malheureusement, de nombreux jeux plus anciens - Half Life Episode 1, Neef For Speed ​​​​Most Wanted, Spellforce 2, Dark Messiah et autres - n'utilisent que des seconds shaders pour les effets HDR. Des jeux plus récents comme Gothic 3 ou Neverwinter Nights 2 utilisent la méthode Bloom précédente, comme c'était le cas dans Black & White 2. Et bien que Neverwinter Nights 2 puisse être configuré pour prendre en charge le rendu HDR, le développeur se méfie de ces fonctionnalités afin que ceux qui ont des FPS peut jouer qui a le matériel habituel installé. Ceci est correctement implémenté dans Oblivion, qui a à la fois des effets de rendu Bloom et HDR exceptionnels via des troisièmes shaders.

Il prend également en charge les quatrièmes shaders (Shader Model 4.0), et l'innovation la plus importante est la modification de l'architecture du pipeline de rendu. Il n'est plus divisé en shaders de pixels et de vertex. Le nouveau noyau de shader peut gérer toutes les données - sommet, pixel, géométrique et même physique. Cela n'a pas nui aux performances - Oblivion fonctionne presque deux fois plus vite que sur la Radeon X1900 XTX ou X1950 XTX optimisée pour le pixel shader.

Ce que la carte graphique supporte en termes de DirectX 10 n'est pas encore possible à tester. Windows Vista, Direct X 10 et les jeux pour cela n'existent pas encore. Cependant, sur le papier, tout semble plus que correct : les shaders de géométrie prennent en charge le Displacement Mapping, ce qui vous permettra d'afficher des choses encore plus réalistes, par exemple, des effets de rendu stéréoscopiques, des objets sous forme de rainures et de surfaces ondulées. Stream Output vous permettra d'obtenir des effets de shader encore meilleurs pour les particules et la physique. La technologie des effets quantiques (Quantum Effect) gère bien les erreurs de calcul des effets de la fumée, du brouillard, du feu et des explosions, et vous permettra de supprimer leurs calculs du processeur central. Tout cela ensemble donnera beaucoup plus d'effets de shader et de physique que l'on pourra voir dans les futurs jeux. Comment tout cela sera mis en œuvre dans la pratique, dans quels jeux et sous quelle forme, l'avenir le montrera.

GeForce 8800 GTX | Les planches à l'épreuve

Cartes vidéo sur nVidia
et puce Nom de code Mémoire HDR-R Haut / photo. shaders Fréquence GPU Fréquence mémoire
nVidia GeForce 8800 GTX G80 768 Mo de GDDR3 Oui 4.0 575 MHz 1800 MHz
Asus + Gigabyte GeForce 7900 GTX SLI G71 512 Mo de GDDR3 Oui 3.0/3.0 650 MHz 1600 MHz
Gigaoctet GeForce 7900 GTX G71 512 Mo GDDR3 Oui 3.0/3.0 650 MHz
nVidia GeForce 7950 GT G71 512 Mo de GDDR3 Oui 3.0/3.0 550 MHz 1400 MHz
Haut Asus GeForce 7900 GT G71 256 Mo de GDDR3 Oui 3.0/3.0 520 MHz 1440 MHz
nVidia GeForce 7900GS G71 256 Mo de GDDR3 Oui 3.0/3.0 450 MHz 1320MHz
Asus GeForce 7800 GTX EX G70 256 Mo de GDDR3 Oui 3.0/3.0 430 MHz 1200 MHz
Gigaoctet GeForce 7800 GT G70 256 Mo de GDDR3 Oui 3.0/3.0 400 MHz 1000 MHz
Asus GeForce 7600 GT G73 256 Mo de GDDR3 Oui 3.0/3.0 560 MHz 1400 MHz
nVidia GeForce 6800 GT NV45 256 Mo de GDDR3 Oui 3.0/3.0 350 MHz 1000 MHz
Gainward GeForce 7800 GS + GSa AGP G71 512 Mo de GDDR3 Oui 3.0/3.0 450 MHz 1250 MHz

Le tableau suivant répertorie les ATi qui ont participé à nos tests.

Cartes vidéo basées sur ATi
Carte vidéo et puce Nom de code Mémoire HDR-R Haut / photo. shaders Fréquence GPU Fréquence mémoire
Club 3D + Club 3D Radeon X1950 XTX CF R580 + 512 Mo de GDDR4 Oui 3.0/3.0 648 MHz 1998 MHz
Club 3D Radeon X1950 XTX R580 + 512 Mo de GDDR4 Oui 3.0/3.0 648 MHz 1998 MHz
HIS + HIS Radeon X1900 XTX CF R580 512 Mo de GDDR3 Oui 3.0/3.0 621 MHz 1440 MHz
Gigaoctet Radeon X1900 XTX R580 512 Mo de GDDR3 Oui 3.0/3.0 648 MHz 1548 MHz
Radeon X1900 XT Power Color R580 512 Mo de GDDR3 Oui 3.0/3.0 621 MHz 1440 MHz
ATI Radeon X1900 XT R580 256 Mo de GDDR3 Oui 3.0/3.0 621 MHz 1440 MHz
Saphir Radeon X1900 GT R580 256 Mo de GDDR3 Oui 3.0/3.0 574 MHz 1188 MHz
SON Radeon X1650 Pro Turbo RV535 256 Mo de GDDR3 Oui 3.0/3.0 621 MHz 1386 MHz
Gecube Radeon X1300 XT RV530 256 Mo de GDDR3 Oui 3.0/3.0 560 MHz 1386 MHz

GeForce 8800 GTX | Tester la configuration

Nous avons utilisé trois supports de référence pour les tests. Tous étaient basés sur des composants extrêmement identiques - un processeur AMD Athlon 64 FX-60 dual-core avec une fréquence de 2,61 GHz, équipé de 2 gigaoctets de RAM Mushkin MB HP 3200 2-3-2, deux disques durs Hitachi de 120 Go dans une configuration RAID 0. La différence était dans les cartes mères utilisées - pour les tests des cartes simples et nVidia en mode SLI, nous avons utilisé la carte mère Asus A8N32-SLI Deluxe. Pour tester les cartes vidéo en mode CrossFire (ceci est indiqué par l'abréviation FC ci-dessous), nous avons utilisé le même ordinateur avec une carte mère de référence ATi basée sur le chipset RD580. Enfin, les cartes vidéo AGP ont été testées sur un ordinateur dans la même configuration, mais sur une carte mère ASUS AV8 Deluxe. Les données de configuration sont résumées dans un tableau.

Pour toutes les cartes graphiques nVidia (y compris SLI) et les cartes Ati simples
CPU
Fréquence des bus 200 MHz
Carte mère Asus A8N32-SLI Deluxe
Jeu de puces nVidia nForce4
Mémoire
Disque dur Hitachi 2 x 120 Go SATA, 8 Mo de cache
DVD Gigaoctet GO-D1600C
Contrôleur de réseau local Merveille
Contrôleur de son Realtek AC97
Source de courant Silverstone SST-ST56ZF 560W
Pour les tests des cartes vidéo ATi en mode CrossFire
CPU AMD Athlon 64 FX-60 Dual Core 2,61 GHz
Fréquence des bus 200 MHz
Carte mère Référence ATi
Jeu de puces ATI RD580
Mémoire Mushkin 2x1024 Mo HP 3200 2-3-2
Contrôleur de réseau local Merveille
Contrôleur de son AC97
Pour les tests de cartes vidéo AGP
CPU AMD Athlon 64 FX-60 Dual Core 2,61 GHz
Fréquence des bus 200 MHz
Carte mère Asus AV8 Deluxe
Jeu de puces VIA K8T800 Pro
Mémoire Mushkin 2x1024 Mo HP 3200 2-3-2
Contrôleur de réseau local Merveille
Contrôleur de son Realtek AC97

Sur les ordinateurs pour tester des cartes vidéo simples et des cartes nVidia en mode SLI, nous avons utilisé Windows XP Professionnel avec SP1a. Les cartes vidéo CrossFire et AGP ont été testées sur des systèmes sur lesquels Windows XP Professionnel SP2 est installé. Les versions du pilote et du logiciel sont résumées dans le tableau suivant.

Pilotes et configuration
cartes graphiques ATi ATI Catalyst 6.6, X1900 XTX, X1950 + Crossfire, X1650 + Crossfire, X1300 XT + Crossfire, Crossfire X1900, Crossfire X1600 XT ATI Catalyst 6.7 (entspricht Catalyst 6.8), Crossfire X1600 Pro, Crossfire X1300 Pro, ATI Catsire 6.8
Cartes graphiques NVidia nVidia Forceware 91.31, 7900 GS, nVidia Forceware 91.47, 7950 GT nVidia Forceware 91.47 (spécial), 8800 GTX nVidia Forceware 96.94 (spécial)
Système opérateur Cartes simples et SLI : Windows XP Pro SP1a, ATI Crossfire et cartes vidéo AGP Windows XP Pro SP2
Version DirectX 9.0c
Chipset Driver nVidia Nforce4 6.86, AGP VIA Hyperion Pro V509A

GeForce 8800 GTX | Résultats de test

Nous avons reçu la carte de référence pour THG directement de nVidia. Pour les tests, nous avons reçu un pilote spécial ForceWare 96.94 préparé exclusivement pour la presse. est une carte compatible DirectX 10 et Shader Model 4.0. Les performances dans les applications pour DirectX 9 et Pixelshader 2 ou Pixelshader 3 sont stupéfiantes.

L'activation de l'anticrénelage et du filtrage anisotrope n'a pratiquement aucun impact sur les performances. Dans Half-Life 2 Episode 1, la carte graphique GeForce 8800 GTX ne peut pas être ralentie. À 1600x1200, la puce est 60% plus rapide que la Radeon X1950 XTX, et dans Oblivion, les performances sont deux fois supérieures à celles de la Radeon X1900 XTX ou X1950 XTX. Dans Prey, la carte graphique à 1600x1200 est 55% plus rapide que la Radeon X1950 XTX. Dans Titan Quest, le nombre d'images par seconde ne change pas, quelle que soit la résolution que vous définissez, et est de 55 FPS.

Dans les tests Half-Life 2: Episode 1 avec rendu HDR, les résultats de la carte sont impressionnants, mais à basse résolution, elle perd face à la Radeon X1950 XTX et aux cartes en mode CrossFire, étant à peu près à égalité avec les solutions SLI sur la GeForce 7900 GTX. Notez que la carte vidéo n'est pas le facteur limitant à basse résolution. Plus nous ajustons les paramètres, plus le résultat est intéressant.

Avec l'anticrénelage et le filtrage anisotrope activés, l'image commence à changer. Toutes les cartes perdent un peu en performances, mais la GeForce 8800 GTX chute de manière très insignifiante - seulement de 10 ips en moyenne, tandis que la double ATi Radeon X1950 XTX perd jusqu'à 20 ips en mode CrossFire.

Dès que l'on dépasse la résolution de 1280x1024 avec anti-aliasing et filtrage anisotrope activés, la seule GeForce 8800 GTX devient le leader incontesté. Les performances dépassent celles de la Radeon X1950 XTX de près de 35 ips. C'est une différence significative.

En outre. En 1600x1200 avec anti-aliasing et filtrage anisotrope, la rupture avec toutes les autres cartes mères devient un cauchemar. Deux fois depuis GeForce 7900 GTX SLI et un peu moins depuis CrossFire Radeon X1950 XTX. C'est ouais !

Enfin, regardons la dynamique de la diminution du FPS avec l'augmentation de la résolution et de la qualité d'image. Nous voyons que la GeForce 8800 GTX a une baisse de performances insignifiante - de 1024x768 nu à lissé et filtré par la méthode d'anisotropie 1600x1200, la différence est juste un peu plus de 20 fps. Auparavant, les solutions haut de gamme d'ATI et de nVidia étaient très anciennes.

Hard Truck : Apocalypse est exigeant à la fois sur la carte vidéo et le processeur central. Cela explique pratiquement les mêmes performances à 1024x768 lorsqu'un simple filtrage trilinéaire est utilisé et que l'anticrénelage plein écran est désactivé.

Dès que vous passez au filtrage anisotrope 4xAA et 8x, les résultats commencent à varier. Les cartes "plus jeunes" perdent considérablement en performances, comme si elles ne remarquaient pas l'amélioration de la qualité de l'image.

A 1280x960 la différence augmente encore plus, mais la GeForce 8800 GTX démontre les mêmes performances. On voit clairement que l'Athlon 64 FX-60 n'est pas capable de mettre cette carte vidéo à genoux.

À 1600x1200, toutes les cartes mères simples commencent à devenir non jouables. Mais la GeForce 8800 GTX affichait 51 fps comme elle le fait.

Considérez la dégradation des performances avec l'augmentation des paramètres. CrossFire Radeon X1950 XTX et GeForce 7900 GTX restent proches, et les cartes de l'ancienne génération sont à genoux depuis longtemps et demandent grâce.

Dans Oblivion, un jeu qui charge la carte vidéo à la limite, l'image est initialement déprimante pour toutes les cartes, à l'exception de la Radeon X1950 XTX en mode CrossFire et. Nous avons collecté des statistiques sur le fonctionnement des cartes vidéo dans les emplacements ouverts et lors du rendu des espaces intérieurs. On peut voir qu'à l'air libre, la GeForce 8800 GTX se situe à côté ou légèrement en retrait de la double Radeon X1950 XTX.






Mais lorsque la résolution atteint 1600x1200, notre GeForce 8800 GTX va loin devant. L'écart est particulièrement visible aux niveaux fermés.


Regardez la diminution des performances à mesure que la résolution et la qualité augmentent. L'image n'a pas besoin de commentaires. Dans les endroits fermés, la vitesse est inébranlable.


Dans Prey, la carte vidéo se situe entre les solutions monocartes ATi Radeon X1950 XTX et les mêmes cartes en mode CrossFire. Et plus la résolution est élevée, plus la GeForce 8800 GTX est belle.




Comparer la GeForce 8800 GTX avec les solutions monocartes d'ATI et nVidia est inutile. L'écart en haute résolution est énorme, et même en 1024x768 avec anti-aliasing c'est impressionnant.

Dans Rise of Nations : Rise of Legends, la carte graphique est le seul leader. Si nous calculons l'écart entre CrossFire Radeon X1950 XTX et GeForce 8800 GTX en pourcentage, alors l'écart sera très, très grand. Si nous comptons en fps, la différence n'est pas si perceptible, mais reste significative.




Remarquez comment la vitesse diminue avec l'augmentation de la résolution. A tous les réglages, la GeForce 8800 GTX est leader non seulement en comparaison avec les cartes simples, mais aussi avec les solutions SLI/CrossFire.

Dans Titan Quest, les cartes nVidia font de leur mieux. Dans le même temps, les fps ne passent pas de 1024x768 à 1600x1200 avec anti-aliasing et filtrage anisotrope.




L'image de ce qui se passe est bien illustrée par le graphique suivant. Les performances de la GeForce 8800 GTX sont au même niveau, quels que soient les réglages.

Dans 3DMark06, la carte fonctionne parfaitement avec les deuxième et troisième shaders. Notez à quel point les performances baissent légèrement lorsque vous activez l'anisotropie et l'anticrénelage.


L'augmentation de la résolution n'est pas non plus effrayante. La carte est à égalité avec les solutions SLI et CrossFire, surpassant de manière significative tous les leaders précédents dans la course unique.


Pour vous donner une meilleure idée des performances de jeu, nous avons réorganisé les graphismes. Il n'y a aucune comparaison ici, seulement le résultat net d'une carte vidéo. Il est à noter que les performances de la GeForce 8800 GTX ne changent pas d'une résolution à l'autre. Dans tous les jeux, le facteur limitant est le processeur AMD Athlon 64 FX-60 insuffisamment rapide. À l'avenir, avec la sortie de puces beaucoup plus rapides, la carte fonctionnera encore mieux dans les mêmes jeux. Nous pensons que le Core 2 Quad de dernière génération n'est pas capable de forcer la GeForce 8800 GTX à atteindre sa limite.




Donc, après avoir terminé avec les résultats des tests, essayons de compiler une évaluation de l'efficacité des cartes vidéo. Pour ce faire, nous allons rassembler les résultats de tous les tests du jeu et les comparer avec le prix de la solution. Nous nous baserons sur les prix conseillés, c'est-à-dire sans les surcoûts des magasins spécifiques. Bien sûr, ils seront très chers au début et de nombreux magasins incluront les bénéfices excédentaires dans le prix. Mais ensuite, les prix vont baisser, et bien sûr, vous pourrez bientôt vous procurer la GeForce 8800 GTX à un prix plus raisonnable.

Comme on peut le voir, les performances de la GeForce 8800 GTX surpassent presque toutes les solutions, y compris le double CrossFire et le SLI. Dans l'absolu, la GeForce 8800 GTX est très rapide. Mais qu'en est-il du prix ?

Le prix est approprié - le fabricant demande des frais de 635 euros. C'est beaucoup, mais il faudra débourser plus cher pour deux cartes Radeon X1900 XTX en mode CrossFire - 700 euros. Et pour deux Radeon X1950 XTX ou SLI GeForce 7900 GTX jusqu'à 750 euros. Malgré le fait que dans certains tests une seule GeForce 8800 GTX contourne ces solutions et prenne moins de place dans le boîtier, il y a de quoi réfléchir.

Enfin, divisons les fps en argent. On voit que ce chiffre est meilleur que celui du SLI et du CrossFire. Bien entendu, le coût de chaque fps sera supérieur à celui de la GeForce 7800 GTX EX, et, bien entendu, sensiblement supérieur à celui de la Radeon X1300 XT. Mais les performances de la planche sont également adéquates. Une solution très efficace en terme de rapport qualité/prix.

Nous avons décidé de compléter notre revue par les résultats des tests du laboratoire américain THG, auquel participait également la GeForce 8800 GTS. Veuillez noter qu'en raison de différences dans la configuration des tests, ne comparez pas directement les résultats indiqués ci-dessus avec ceux du laboratoire américain.


La GeForce 8800GTX est plus longue que la Radeon X1950XTX et la plupart des autres cartes du marché. Le 8800GTS est un peu plus court.

Comme d'autres tests de cartes graphiques en 2006, nous l'avons testée sur la plate-forme AMD Athlon FX-60. Nous montrerons également les résultats des configurations avec plusieurs GPU. De plus, évaluons le comportement des nouvelles cartes vidéo lorsque les performances sont limitées par le CPU (faible résolution et qualité d'image).

Matériel système
Processeurs AMD Athlon 64 FX-60, 2,6 GHz, 1,0 GHz HTT, 1 Mo de cache L2
Plate-forme nVidia : Asus AN832-SLI Premium, nVidia nForce4 SLI, BIOS 1205
Mémoire Corsair CMX1024-4400Pro, 2x 1024 Mo DDR400 (CL3,0-4-4-8)
Disque dur Western Digital Raptor, WD1500ADFD, 150 Go, 10 000 tr/min, 16 Mo de cache, SATA150
Réseau Ethernet nForce4 Gigabit intégré
Cartes vidéo ATi Radeon X1950XTX 512 Mo de GDDR4, cœur 650 MHz, mémoire 1000 MHz (DDR 2,00 GHz)
Cartes NVidia :
nVidia GeForce 8800GTX 768 Mo GDDR3, cœur 575 MHz, processeurs de flux 1,350 GHz, mémoire 900 MHz (1,80 GHz DDR)
XFX GeForce 8800GTS 640 Mo de GDDR3, cœur de 500 MHz, processeurs de flux de 1 200 GHz, mémoire de 800 MHz (1,60 GHz DDR)
nVidia GeForce 7900GTX 512 Mo de GDDR3, cœur 675 MHz, mémoire 820 MHz (1,64 GHz DDR)
Source de courant Alimentation PC et refroidissement Turbo-Cool 1000W
CPU plus frais Zalman CNPS9700 LED
Logiciel système et pilotes
Système d'exploitation Microsoft Windows XP Professionnel 5.10.2600, Service Pack 2
Version DirectX 9.0c (4.09.0000.0904)
Pilotes graphiques ATi - Catalyseur 6.10 WHQL
nVidia - ForceWare 96.94 bêta

Lors de la première exécution de 3DMark, nous avons effectué des tests à toutes les résolutions, mais avec l'anti-aliasing plein écran et le filtrage anisotrope désactivés. Dans la deuxième exécution, nous avons activé les options d'amélioration d'image 4xAA et 8xAF.

nVidia vient clairement en premier dans 3DMark05. La GeForce 8800 GTX atteint le même résultat en 2048x1536 que l'ATi Radeon X1950 XTX en 1024x768 par défaut. Impressionnant.

Doom 3 est généralement dominé par les cartes nVidia car leurs conceptions s'adaptent bien à ce jeu. Mais il n'y a pas si longtemps, ATi était capable de "prendre" ce jeu avec de nouvelles cartes.

Ici, pour la première fois, nous sommes confrontés aux limitations de la puissance de traitement du CPU, car en basse résolution, le résultat se situe aux alentours de 126 images par seconde. La carte ATi est capable de plus d'images par seconde sur cette configuration système. La raison réside dans les pilotes. Le fait est qu'ATI publie des pilotes moins gourmands en CPU. En conséquence, le processeur est dans de meilleures conditions et peut fournir plus de performances pour le sous-système graphique.

En général, ce sont les nouvelles cartes 8800 qui gagnent. Si vous regardez les résultats à toutes les résolutions, les nouvelles cartes DX10 surpassent la Radeon X1950 XTX, à partir de 1280x1024 et plus.

GeForce 8800 GTX et GTS | CRAINDRE.

Dans la peur. généralement les cartes nVidia mènent. Mais, encore une fois, les pilotes ATI ont moins de charge CPU. Bien sûr, avec une plate-forme plus rapide, les résultats seront différents, mais si votre ordinateur n'est pas avancé, ce test montre clairement comment les cartes G80 fonctionneront dessus. Mais à part le test en 1024x768, le G80 tue tout simplement la Radeon X1950 XTX. GTX est un monstre. Et quelle que soit la charge que nous mettons sur la GeForce 8800 GTX, la carte fournit toujours plus de 40 images par seconde.


Cliquez sur l'image pour agrandir.

La deuxième capture d'écran (ci-dessous) est prise sur une 8800 GTX avec les mêmes paramètres.



Cliquez sur l'image pour agrandir.

L'image nVidia est de bien meilleure qualité que la capture d'écran ATi. Il semble que nVidia ait à nouveau pris les devants à cet égard. Nous avons un autre avantage que les cartes nVidia basées sur la puce G80 ont.


Voici un tableau des nouvelles opportunités d'amélioration de la qualité sur les cartes G80.

En plus des nouvelles cartes graphiques DX10, nVidia a également révélé plusieurs fonctionnalités qui seront disponibles sur les cartes G80. Et le premier d'entre eux est une technologie propriétaire d'amélioration de la qualité d'image appelée Coverage Sampled Antialiasing (CSAA).

La nouvelle version de l'anticrénelage plein écran utilise une zone de 16 sous-échantillons. En conséquence, selon nVidia, il est possible de compresser "les informations de couleur et de profondeur redondantes dans la mémoire et la bande passante de quatre ou huit multi-échantillons". Le nouveau niveau de qualité fonctionne plus efficacement en réduisant la quantité de données par échantillon. Si CSAA ne fonctionne avec aucun jeu, le pilote reviendra aux méthodes traditionnelles d'anticrénelage.


Cliquez sur l'image pour agrandir.

Avant de terminer cette revue, permettez-moi de parler de deux autres aspects des cartes vidéo qui sont en développement depuis longtemps et deviendront plus importants avec le temps. Le premier aspect est la lecture vidéo. Sous le règne des GeForce 7, l'ATi Radeon X1900 était le leader de la qualité de lecture vidéo. Mais la donne a changé avec l'avènement des shaders unifiés avec un noyau Pure Video dédié.

Grâce à des algorithmes intelligents et 128 unités de calcul, la GeForce 8800 GTX a pu obtenir 128 points sur 130 en HQV. Dans un avenir proche, nous prévoyons de publier un article plus détaillé sur la qualité d'image, alors restez à l'écoute des nouvelles sur notre site Web.

Enfin, un point très fort du G80 est ce que Nvidia appelle CUDA. Pendant des années, les scientifiques et les passionnés ont cherché des moyens de tirer plus de performances de puissants processeurs parallèles. Le cluster Beowulf, bien sûr, n'est pas abordable pour tout le monde. Par conséquent, le commun des mortels propose différentes manières d'utiliser une carte vidéo pour les calculs.

Le problème ici est le suivant : le GPU est bon pour le calcul parallèle, mais il ne fonctionne pas bien avec le branchement. C'est là que le CPU fonctionne bien. De plus, si vous souhaitez utiliser une carte graphique, vous devez programmer des shaders comme le font les développeurs de jeux. nVidia a de nouveau décidé d'aller de l'avant avec la Compute Unified Device Architecture, ou CUDA.


C'est ainsi que CUDA peut fonctionner pour la simulation des fluides.

Nvidia a sorti un compilateur C+ dont les programmes résultants peuvent s'adapter à la puissance de traitement du GPU (par exemple, 96 processeurs de flux dans la 8800 GTS ou 128 dans la 8800 GTX). Désormais, les programmeurs ont la possibilité de créer des programmes évolutifs en termes de ressources CPU et GPU. CUDA est sûr de faire appel à une variété de programmes informatiques distribués. Cependant, CUDA peut être utilisé non seulement pour calculer des blocs, mais aussi pour simuler d'autres effets : fluide volumétrique, vêtements et cheveux. Grâce à CUDA, les calculs de physique et même d'autres aspects du jeu peuvent être potentiellement transférés vers le GPU.


Les développeurs recevront un ensemble complet de SDK.

GeForce 8800 GTX et GTS | Conclusion

Ceux qui passent de GeForce 6 à maintenant obtiendront presque trois fois plus de performances. Peu importe la date de sortie des jeux pour DirectX 10, peu importe ce que les quatrièmes shaders nous donneront - aujourd'hui, la GeForce 8800 GTX est la puce la plus rapide. Des jeux comme Oblivion, Gothic 3 ou Dark Messiah attendaient la puce G80 et les cartes graphiques. Il est redevenu possible de jouer sans freins. La GeForce 8800 GTX a assez de puissance pour tous les derniers jeux.

Le système de refroidissement est silencieux, le refroidisseur de 80 mm sur la carte de référence était du jamais vu. Même à pleine charge, la vitesse de rotation du refroidisseur est faible. Je me demande comment ATi réagira à cela. Quoi qu'il en soit, nVidia a fait un sacré bon travail et a sorti un matériel vraiment puissant.

Inconvénients : la carte fait 27 centimètres de long, elle tient lieu de deux slots PCI Express. L'alimentation doit être d'au moins 450 watts (12V, 30A). Pour la GeForce 8800 GTS, le minimum sera un bloc d'alimentation de 400 watts avec 30 ampères sur le bus de 12 volts.

Suivant une longue tradition, les cartes nVidia sont déjà disponibles dans les boutiques en ligne. Sur le marché international, le prix recommandé pour la GeForce 8800GTX est de 599 $ et la GeForce 8800GTS est de 449 $. Et des jeux pour DX10 devraient bientôt faire leur apparition. Mais non moins important, vous obtiendrez une meilleure image dans les jeux existants.


Voici à quoi pourrait ressembler un mannequin DX10. Cliquez sur l'image pour agrandir.

GeForce 8800 GTX et GTS | Avis de la rédaction

Personnellement, je suis impressionné par l'implémentation de DX10 / D3D10 par nVidia. Le visionnage en direct de Crysis et les nombreuses démos sont impressionnants. L'implémentation CUDA vous permet de transformer votre carte graphique en plus qu'un simple moteur de rendu d'images. Désormais, les programmes pourront utiliser non seulement les ressources CPU, mais également toute la puissance parallèle du noyau universel de shader GPU. J'ai hâte de voir de telles solutions dans la réalité.

Mais le G80 laisse beaucoup à désirer. Quelle? Bien sûr, de nouveaux jeux. Messieurs les développeurs, auriez-vous l'amabilité de publier les jeux DX10 dès que possible.

GeForce 8800 GTX | galerie de photos

Depuis plus d'un an qui s'est écoulé depuis la sortie des cartes vidéo à base de puces NVIDIA de la gamme GeForce 8800, la situation sur le marché des accélérateurs graphiques est devenue une situation extrêmement défavorable pour le client final. En fait, un overclockeur qui pouvait débourser une jolie somme d'argent pour des cartes vidéo haut de gamme n'avait tout simplement pas le choix. Un concurrent d'ATI (AMD) est apparu plus tard et, au final, n'a pas pu rivaliser avec la GeForce 8800 GTX, puis la version Ultra de la NVIDIA GeForce 8800. Par conséquent, les marketeurs de NVIDIA ont facilement compris qu'en l'absence de concurrence, ils pourrait réduire le coût des cartes vidéo haut de gamme ne sont pas du tout nécessaires. En conséquence, tout au long de cette période, les prix des GeForce 8800 GTX et Ultra sont restés au même niveau très élevé, et seuls quelques-uns pouvaient se permettre de telles cartes vidéo.

Cependant, le segment de prix supérieur n'a jamais été le segment déterminant et prioritaire pour les fabricants de puces graphiques et de cartes vidéo. Oui, le leadership dans cette classe est sans aucun doute prestigieux pour toute entreprise, mais d'un point de vue économique, la plus rentable est la fourchette de prix moyenne. Néanmoins, comme l'ont montré les récents tests des AMD Radeon HD 3850 et 3870 prétendant dominer la classe moyenne, les performances de telles cartes vidéo sont insatisfaisantes pour les jeux modernes et, en principe, inacceptables pour leurs modes de haute qualité. NVIDIA GeForce 8800 GT est plus rapide que cette paire, mais manque également de confort dans les jeux DirectX 10. Qu'est-ce qui s'ensuit après lui, s'il y a une possibilité de payer un supplément? Jusqu'à hier, il ne s'est pratiquement rien passé, car il y a littéralement un abîme en termes de prix entre GT et GTX et c'est tout.

Mais le progrès technique ne s'arrête pas - l'apparition de la nouvelle puce NVIDIA G92, fabriquée avec la technologie 65 nm, a permis à l'entreprise non seulement d'attirer les overclockeurs avec une carte vidéo GeForce 8800 GT assez réussie, mais aussi hier, le 11 décembre à 17h : 00 heure de Moscou, pour annoncer un nouveau produit - GeForce 8800 GTS 512 Mo... Malgré le nom simple de la carte vidéo, le nouvel accélérateur graphique présente un certain nombre de différences significatives par rapport à la version habituelle de la GeForce 8800 GTS. Dans l'article d'aujourd'hui, nous allons nous familiariser avec l'une des premières cartes vidéo GeForce 8800 GTS 512 Mo, apparaissant sur le marché russe, vérifier son régime de température et son potentiel d'overclocking et, bien sûr, examiner les performances du nouveau produit.

La publicité

1. Caractéristiques techniques des cartes vidéo participant aux tests

Les caractéristiques techniques du nouveau produit sont présentées à votre attention dans le tableau suivant en comparaison avec les cartes vidéo NVIDIA de la famille GeForce 8800 :

Nom de la technique
les caractéristiques
NVIDIA GeForce
8800 GT 8800 GTS 8800 GTS
512 Mo
8800
GTX / Ultra
GPU G92 (TSMC) G80 (TSMC) G92 (TSMC) G80 (TSMC)
Technologie des procédés, nm 65 (bas-k) 90 (bas-k) 65 (bas-k) 90 (bas-k)
Aire centrale, mm2 330 484 330 484
Nombre de transistors, mln. 754 681 754 681
Fréquence GPU, MHz 600
(1512 nuanceur)
513
(1188 nuanceur)
650
(ombrage 1625)
575 / 612
(1350 / 1500
ombrage)
Fréquence de fonctionnement effective
mémoire vidéo, MHz
1800 1584 1940 1800 / 2160
Taille de la mémoire, Mo 256 / 512 320 / 640 512 768
Type de mémoire pris en charge GDDR3
Largeur du bus mémoire, bit 256
(4x64)
320 256
(4x64)
384
Interface PCI-Express
x16 (v2.0)
PCI-Express
x16 (v1.x)
PCI-Express
x16 (v2.0)
PCI-Express
x16 (v1.x)
Le nombre de shaders unifiés
processeurs, pcs.
112 96 128
Nombre d'unités de texture, pcs. 56 (28) 24 64 (32) 32
Le nombre de blocs de rastérisation (ROP), pcs. 16 20 16 24
Prise en charge de la version Pixel Shaders / Vertex
Ombrages
4.0 / 4.0
Bande passante de la mémoire vidéo, Go/sec ~57.6 ~61.9 ~62.1 ~86.4 / ~103.7

ombrage, Gpix./sec
~9.6 ~10.3 ~10.4 ~13.8 / ~14.7
Vitesse maximale théorique
échantillonnage de textures, Gtex/sec
~33.6 ~24.0 ~41.6 ~36.8 / ~39.2
Pic de consommation électrique en
Mode de fonctionnement 3D, Watt
~106 ~180
Exigences d'alimentation pour l'alimentation,
Watt
~400 ~400 ~400 ~450 / ~550
Dimensions de la carte vidéo de référence
conception, mm (L x B x T)
220x100x15 228 x 100 x 39 220x100x32 270x100x38
Les sorties 2 x DVI-I
(Dual-Link),
Sortie TV, HDTV-
Sortie, HDCP
2 x DVI-I
(Dual-Link),
Sortie TV,
Sortie HDTV
2 x DVI-I
(Dual-Link),
Sortie TV, HDTV-
Sortie, HDCP
2 x DVI-I
(Dual-Link),
Sortie TV,
Sortie HDTV
aditionellement Prise en charge du SLI
Coût recommandé, dollars américains 199 / 249 349 ~ 399 299~349 499~599 / 699

2. Examen de BFG GeForce 8800 GTS 512 Mo OC (BFGR88512GTSE)

La dernière carte vidéo d'une société d'overclocking bien connue est livrée dans une boîte très compacte, décorée dans des couleurs sombres.

Test comparatif de quatre GeForce 8800GTS 512 et 8800GT

Faisons connaissance avec les cartes GeForce 8800GTS 512, comparons-les avec la GeForce 8800GT moins chère et la GeForce 8800GTX vétéran. En cours de route, nous testons un nouveau banc de test et collectons les défauts des pilotes pour DX10

Avec la sortie d'une nouvelle série de cartes vidéo GeForce 8800GTS 512, NVIDIA a sensiblement renforcé sa position. La nouveauté a remplacé la GeForce 8800GTX plus chère, chaude et encombrante, et le seul inconvénient par rapport à son prédécesseur était un bus mémoire 256 bits plus étroit (contre 384 pour la GeForce 8800GTX) et une plus petite quantité de mémoire égale à 512 Mo (contre 768 Mo pour la GeForce 8800GTX) ... Cependant, la nouveauté a subi non seulement des réductions, mais aussi quelques améliorations : le nombre d'unités de texture est passé de 32 à 64, ce qui compense sans doute en partie les simplifications de la carte. De plus, pour compenser les simplifications, les fréquences ont été augmentées par rapport à leur prédécesseur, et la quantité de mémoire vidéo peut être facilement étendue à 1 Go en installant simplement des puces de plus grande capacité, ce qui, d'ailleurs, a déjà commencé à se faire. par certains fabricants. Mais, malgré le fait que la carte vidéo GeForce 8800GTS 512 ait remplacé la GeForce 8800GTX, son principal concurrent n'est pas son prédécesseur, mais le plus proche parent de la GeForce 8800GT, et tout le sel réside dans son prix inférieur. Les cartes vidéo GeForce 8800GTS 512 et GeForce 8800GT diffèrent peu les unes des autres, puisque la GeForce 8800GT est une version réduite de la GeForce 8800GTS 512 et, curieusement, est apparue sur le marché plus tôt que la version à part entière. Les deux cartes vidéo sont équipées de 512 Mo de mémoire vidéo et, comme le montrent les recherches d'aujourd'hui, elles ont la même mémoire. Les principales différences résident dans le processeur graphique, et plus précisément, dans la version GT, certains de ses blocs fonctionnels sont désactivés. Plus de détails sont donnés dans le tableau ci-dessous :

Comme vous pouvez le constater, la GeForce 8800GT se distingue de sa grande sœur par le nombre réduit de processeurs universels à 112 et le nombre d'unités de texture réduit à 56. Initialement, les cartes diffèrent également par leurs vitesses d'horloge, mais cela n'a pas d'importance pour notre examen d'aujourd'hui, car presque toutes les cartes étaient overclockées en usine. Voyons comment les différences sur le papier ont affecté la réalité.

Leadtek 8800GTS 512

Les concepteurs de Leadtek ont ​​choisi une couleur orange vif pour attirer l'attention sur leur carte vidéo, et ils avaient tout à fait raison : le nouveau produit ne passera pas inaperçu.
Le visage de la nouveauté est une image d'une scène d'un "jeu de tir" fictif, sous lequel se trouvent les caractéristiques techniques de la carte vidéo et une note sur le bonus - la version complète du jeu Neverwinter Nights 2.
Le verso de la boîte contient les caractéristiques de la carte vidéo, une liste de l'ensemble de livraison et des informations standard de NVIDIA.
  • répartiteur S-vidéo> S-vidéo + sortie composante ;
  • adaptateur DVI> D-sub;
  • CD avec pilotes;
  • CD avec Power DVD 7 ;

La carte vidéo Leadtek 8800GTS 512 est basée sur le design de référence, qui nous est familier des cartes GeForce 8800GT. Extérieurement, la nouveauté se distingue par un système de refroidissement "à deux étages", qui, contrairement à son prédécesseur, projette de l'air chaud hors de l'ordinateur. Les avantages d'une telle solution sont évidents et la raison de l'utilisation d'un système de refroidissement amélioré n'est probablement pas que la «nouvelle» puce chauffe davantage, mais que pour beaucoup d'argent, l'acheteur a parfaitement le droit d'obtenir un meilleur produit. En effet, pour parler franchement, le système de référence de la GeForce 8800GT ne fait pas son travail de la meilleure des manières.
Les faces arrière des GeForce 8800GTS 512 et GeForce 8800GT se ressemblent presque et diffèrent en ce que la version 8800GTS 512 a tous les éléments montés. Cependant, nous pourrons voir les différences plus tard sur l'exemple de la carte vidéo Leadtek 8800GT, mais pour l'instant nous allons ramper sous le capot du nouveau produit.
Après avoir retiré le système de refroidissement, nous pouvons à nouveau nous assurer que les planches sont identiques. Cependant, faites attention au côté droit de la carte, où se trouve le sous-système d'alimentation. Là où la GeForce 8800GT est vide et seuls les sièges sont situés, le Leadtek 8800GTS 512 est densément peuplé d'éléments radio. Il s'avère que la GeForce 8800GTS 512 possède un sous-système d'alimentation plus complexe que la GeForce 8800GT. En principe, ce n'est pas surprenant, car la GeForce 8800GTS 512 a des fréquences de fonctionnement plus élevées et, par conséquent, des exigences plus strictes en matière de qualité d'alimentation.
Il n'y a pas de différences externes entre la puce G92 de la Leadtek 8800GTS 512 et la puce G92 des cartes vidéo GeForce 8800GT.
La nouvelle carte vidéo utilise les mêmes puces Qimonda avec un temps d'accès de 1,0 ns que la GeForce 8800GT. Un ensemble de huit puces forme 512 Mo de mémoire vidéo. La fréquence nominale de ces puces est de 2000 MHz DDR, mais la fréquence réelle définie dans la carte vidéo est légèrement inférieure.
Le système de refroidissement de la carte vidéo est en aluminium avec une plaque de cuivre. Cette combinaison de deux matériaux est utilisée depuis longtemps et vous permet d'atteindre l'efficacité requise avec moins de poids et un coût moindre.
Le traitement du "noyau" de cuivre est à un niveau satisfaisant, mais pas plus.
Après avoir retiré le boîtier du système de refroidissement, nous avons une image étonnante : jusqu'à trois caloducs sont engagés pour évacuer la chaleur de la base en cuivre, qui va vers différentes parties du radiateur en plaques d'aluminium. Un tel schéma sert à une répartition uniforme de la chaleur et les grandes dimensions du dissipateur thermique devraient avoir le meilleur effet sur la qualité du refroidissement, ce qui ne peut pas être dit à propos du système de refroidissement de référence GeForce 8800GT. Il existe également trois caloducs, mais leurs dimensions sont sensiblement plus petites, tout comme les dimensions du radiateur lui-même.

Différences, overclocking et efficacité du système de refroidissement


Les différences par rapport à la GeForce 8800GT résident dans l'augmentation du nombre de processeurs universels de 112 à 128, ainsi que dans les fréquences de fonctionnement de l'ensemble du GPU.
Les fréquences Leadtek 8800GTS 512 correspondent à celles recommandées et sont égales à 650/1625 MHz pour le GPU et 1944 MHz pour la mémoire vidéo.

Maintenant - à propos du chauffage de la carte vidéo, que nous vérifierons à l'aide du jeu Oblivion avec des paramètres maximum.


La carte vidéo Leadtek 8800GTS 512 s'est réchauffée de 55 degrés au repos à 71 degrés, tandis que le bruit du ventilateur était pratiquement inaudible. Cependant, cela s'est avéré insuffisant pour l'overclocking, et avec l'aide du même Riva Tuner, nous avons augmenté la vitesse du ventilateur jusqu'à 50% du maximum possible.
Après cela, la température du GPU n'a pas dépassé 64 degrés, tandis que le niveau de bruit est resté à un niveau bas. La carte vidéo Leadtek 8800GTS 512 a été overclockée à 756/1890 MHz pour le GPU et 2100 MHz pour la mémoire vidéo. Ces hautes fréquences étaient inaccessibles pour la GeForce 8800GT, très probablement en raison du système d'alimentation simplifié.

Eh bien, faisons connaissance avec le prochain participant de notre test d'aujourd'hui - la carte vidéo ASUS EN8800GTS TOP.

HAUT ASUS EN8800GTS


Lorsque vous regardez l'emballage des puissantes cartes vidéo d'ASUS, vous pouvez avoir l'impression qu'il ne s'agit pas du tout d'une carte vidéo, mais, par exemple, d'une carte mère. Tout est dans la grande taille ; par exemple, dans notre cas, la taille de la boîte est sensiblement plus grande que celle du premier participant au test d'aujourd'hui. La grande surface de la face avant de l'emballage a permis d'insérer une grande image de la fille de l'archer propriétaire et un diagramme considérable montrant une vitesse 7% plus rapide par rapport à la GeForce 8800GTS 512 "normale". L'abréviation "TOP" dans le nom de la carte vidéo signifie qu'elle a subi un overclocking d'usine. L'inconvénient de l'emballage est qu'il n'est pas évident que la carte vidéo appartient à la série GeForce 8800GTS 512, mais, dans l'ensemble, ce sont des bagatelles. Au début, il est surprenant qu'il y ait trop peu d'informations sur la boîte, cependant, la vérité se révèle plus tard, par elle-même, et au sens littéral.
Dès que l'on prend la boîte par la poignée, au premier souffle de brise elle s'ouvre comme un livre. Les informations sous la couverture sont entièrement consacrées aux utilitaires propriétaires d'ASUS, en particulier, ASUS Gamer OSD, qui peut désormais non seulement modifier la luminosité / le contraste / la couleur en temps réel, mais également afficher la valeur FPS, ainsi qu'enregistrer des vidéos et prendre des captures d'écran. Le deuxième utilitaire décrit, appelé Smart Doctor, est conçu pour surveiller la valeur des tensions d'alimentation et des fréquences de la carte vidéo, et vous permet également de l'overclocker. Il faut dire que l'utilitaire propriétaire d'ASUS permet de modifier deux fréquences GPU, à savoir le core et l'unité shader. Cela le rapproche du célèbre utilitaire Riva Tuner.
Le verso de la boîte contient un peu de tout, en particulier une brève description de l'utilitaire Video Security, conçu pour utiliser un ordinateur comme système de vidéosurveillance "intelligent" en mode en ligne.
La carte est regroupée selon le principe du "rien de plus":
  • adaptateur pour l'alimentation de cartes PCI-express;
  • S-vidéo> adaptateur de sortie composante ;
  • adaptateur DVI> D-sub;
  • sac pour 16 disques;
  • CD avec pilotes;
  • CD avec documentation;
  • brèves instructions pour l'installation d'une carte vidéo.

Extérieurement, la carte vidéo est presque une copie exacte de la Leadtek 8800GTS 512, et ce n'est pas surprenant : les deux cartes sont basées sur le design de référence et, très probablement, ont été produites dans la même usine sur ordre de NVIDIA lui-même, et alors seulement ont été envoyés à Leadtek et ASUS. En termes simples, aujourd'hui, une carte de Leadtek pourrait bien devenir une carte d'ASUS, et vice versa.
Il est clair que le verso de la carte vidéo n'est pas non plus différent de celui de la Leadtek 8800GTS 512, sauf qu'ils ont des autocollants de marque différents.
Il n'y a également rien d'inhabituel sous le système de refroidissement. Le système d'alimentation sur le côté droit de la carte est entièrement assemblé, au centre se trouve un GPU G92 avec 128 processeurs de flux actifs et huit puces mémoire représentant 512 Mo au total.
Les puces mémoire sont fabriquées par Qimonda et ont un temps d'accès de 1,0 ns, ce qui correspond à une fréquence de 2000 MHz.
L'apparence du GPU ne révèle pas ses nobles origines, comme celle du Leadtek 8800GTS 512.
Le système de refroidissement de la carte vidéo ASUS EN8800GTS TOP est exactement le même que celui de la carte vidéo Leadtek 8800GTS 512 : un "noyau" en cuivre est intégré au dissipateur thermique en aluminium pour évacuer la chaleur du GPU.
La qualité de polissage du noyau en cuivre est satisfaisante, comme son prédécesseur.
La chaleur du noyau en cuivre est répartie sur les ailettes en aluminium à l'aide de trois caloducs en cuivre. Nous avons déjà vu l'efficacité de cette solution sur l'exemple de la première carte.

Fréquences nominales et overclocking

Comme nous l'avons déjà dit, le préfixe TOP après le nom de la carte vidéo indique son overclocking d'usine. Les fréquences nominales du nouvel élément sont égales à 740/1780 MHz pour le GPU (versus 650/1625 MHz pour Leadtek) et 2072 MHz pour la mémoire vidéo (versus 1944 MHz pour Leadtek). Notez que pour les puces mémoire avec un temps d'accès de 1,0 ns, la fréquence d'horloge nominale est de 2000 MHz.

Nous avons réussi à overclocker la carte aux mêmes fréquences que la Leadtek 8800GTS 512 : 756/1890 MHz pour le GPU et 2100 MHz pour la mémoire vidéo avec une vitesse de ventilation de 50% du maximum.

Eh bien, descendons d'un cran et familiarisons-nous avec deux cartes vidéo de la classe GeForce 8800GT.

Leadtek 8800GT

La carte vidéo Leadtek 8800GT est un représentant typique de la série GeForce 8800GT et, en fait, n'est pas très différente de la majorité. L'essentiel est que les cartes vidéo GeForce 8800GT sont moins chères que les GeForce 8800GTS 512 "avancées", elles ne sont donc pas moins intéressantes.
Le boîtier du Leadtek 8800GT est presque le même que celui du plus cher 8800GTS 512. Les différences résident dans la plus petite épaisseur, l'absence de poignée de transport et, bien sûr, le nom de la carte vidéo. L'inscription "extrême" après le nom de la carte vidéo parle de son overclocking d'usine.
La face arrière de la boîte contient de brèves informations sur la carte vidéo, ses avantages et une liste d'équipements. Soit dit en passant, dans notre cas, il n'y avait pas de jeu Neverwinter Nights 2 et d'instructions pour installer une carte vidéo.
Le forfait comprend de nouveaux articles:
  • adaptateur pour l'alimentation de cartes PCI-express;
  • répartiteur S-vidéo> S-vidéo + sortie composante ;
  • adaptateur DVI> D-sub;
  • CD avec pilotes;
  • CD avec Power DVD 7 ;
  • CD avec la version complète de Newervinter Nights 2;
  • brèves instructions pour l'installation d'une carte vidéo.

La carte vidéo Leadtek 8800GT est fabriquée selon la conception de référence et ne diffère extérieurement que par un autocollant sur le boîtier du système de refroidissement.
Le verso de la carte vidéo ne ressort pas non plus, cependant, après avoir examiné la carte vidéo GeForce 8800GTS 512, la rangée manquante de condensateurs à puce sur la gauche de la carte attire l'attention.
Le système de refroidissement est fabriqué selon la conception de référence et nous est bien connu des critiques précédentes.
Lors de l'examen du circuit imprimé, on remarque l'absence d'éléments sur le côté droit de la carte, qui, comme nous l'avons déjà vu, sont montés dans la version 8800GTS 512. Sinon, il s'agit d'une carte tout à fait ordinaire avec un GPU G92 réduit à 112 processeurs de flux et huit puces mémoire, représentant au total 512 Mo.
Comme les précédents participants aux tests d'aujourd'hui, les puces mémoire Leadtek 8800GT sont fabriquées par Qimonda et ont un temps d'accès de 1,0 ns, ce qui correspond à 2000 MHz.

Fréquences nominales et overclocking

Comme déjà mentionné, la carte vidéo Leadtek 8800GT a un overclocking d'usine. Ses fréquences nominales sont de 678/1700 MHz pour le GPU et de 2000 MHz pour la mémoire vidéo. Très bon, cependant, malgré un overclocking d'usine aussi considérable, la carte vidéo n'a pas montré le meilleur résultat lorsqu'elle est overclockée manuellement, seulement 713/1782 MHz pour le GPU et 2100 MHz pour la mémoire vidéo. Rappelons que les participants des revues précédentes étaient overclockés à des fréquences de 740/1800 MHz pour le processeur vidéo et de 2000-2100 MHz pour la mémoire vidéo. On note également que nous avons obtenu ce résultat à la vitesse maximale du ventilateur du système de refroidissement, car, comme nous l'avons déjà dit, le système de référence dans GeForce 8800GT ne fait pas son travail de la meilleure des manières.

Passons maintenant au prochain participant au test d'aujourd'hui.

Palit 8800GT sonique


Le visage de la carte vidéo sonique Palit 8800GT est une grenouille de combat au design spectaculaire. C'est idiot, mais très drôle ! Cependant, notre vie est constituée d'absurdités, et s'en souvenir une fois de plus ne fait pas mal du tout. En passant du plaisir au travail, vous devez faire attention au coin inférieur droit, où se trouve un autocollant indiquant les fréquences de la carte vidéo et ses autres caractéristiques. Les fréquences du nouveau produit sont quasiment les mêmes que celles de la GeForce 8800GTS 512 : 650/1625 MHz pour le GPU et 1900 MHz pour la mémoire vidéo, soit seulement 44 MHz de moins que celle de la 8800GTS 512.
Le verso de la boîte ne contient rien de remarquable, car tout ce qui est intéressant se trouve sur la face avant.
Le forfait comprend de nouveaux articles:
  • adaptateur pour l'alimentation de cartes PCI-express;
  • S-vidéo> adaptateur de sortie composante ;
  • adaptateur S-vidéo> tulipe;
  • adaptateur DVI> D-sub;
  • adaptateur DVI> HDMI;
  • CD avec pilotes;
  • CD avec la version complète du jeu Tomb Raider The Legend ;
  • brèves instructions pour l'installation d'une carte vidéo.
A noter qu'il s'agit de la première carte vidéo de la classe GeForce 8800GT avec un adaptateur DVI>HDMI, qui a été dans notre laboratoire de test ; Auparavant, seules certaines cartes vidéo de la famille AMD Radeon étaient équipées d'un tel adaptateur.
Voici la première surprise ! La carte vidéo sonique Palit 8800GT est basée sur un PCB de notre propre conception et est équipée d'un système de refroidissement propriétaire.
Le verso de la carte vidéo présente également quelques différences, mais il nous est toujours difficile de juger des avantages et des inconvénients du nouveau design. Mais nous pouvons pleinement juger de l'installation des composants de la carte vidéo et de leur qualité.
Étant donné que la hauteur des racks entre le dissipateur thermique du GPU et la carte est inférieure à l'écart entre eux et que le dissipateur thermique est fixé avec des vis sans coussinets d'amortissement, la carte elle-même et le substrat de la puce graphique sont très courbés. Malheureusement, cela peut entraîner des dommages, et le problème ne réside pas dans la résistance du PCB à partir duquel la carte est fabriquée, mais dans les pistes, qui peuvent éclater lorsqu'elles sont tirées. Cependant, il n'est pas du tout nécessaire que cela se produise, mais le fabricant devrait accorder plus d'attention à la fixation de systèmes de refroidissement sur leurs cartes vidéo.
Le système de refroidissement est en aluminium peint et se compose de trois parties - pour le GPU, la mémoire vidéo et le sous-système d'alimentation. La base du dissipateur thermique du GPU ne brille pas avec un traitement spécial, et une masse grise solide est utilisée comme interface thermique.
Les modifications apportées à la conception de la carte de circuit imprimé ont affecté le sous-système d'alimentation, les petits éléments ont été remplacés par de plus grands et leur disposition a été modifiée. Pour le reste, nous avons devant nous la bien connue GeForce 8800GT avec le processeur graphique G92 et huit puces de mémoire vidéo représentant 512 Mo au total.
Comme le reste des participants aux tests d'aujourd'hui, les puces mémoire sont fabriquées par Qimonda et ont un temps d'accès de 1,0 ns.

Efficacité du système de refroidissement et overclocking

Nous allons vérifier l'efficacité du système de refroidissement propriétaire utilisé dans le Palit 8800GT sonic en utilisant Oblivion avec des réglages maximum, cependant, comme toujours.


La carte vidéo s'est réchauffée de 51 à 61 degrés, ce qui, en général, est un très bon résultat. Cependant, la vitesse du ventilateur a considérablement augmenté, de sorte que le système de refroidissement déjà peu silencieux est devenu clairement audible dans le contexte général. C'est pourquoi il est difficile de recommander une carte vidéo de Palit à ceux qui aiment la tranquillité.

Malgré les changements dans le sous-système d'alimentation et l'amélioration du refroidissement, la carte vidéo sonique Palit 8800GT a été overclockée aux fréquences habituelles de 734/1782 MHz pour le GPU et 2000 MHz pour la mémoire vidéo.

Nous avons donc fini de faire connaissance avec les participants aux tests d'aujourd'hui, et nous allons donc passer à l'examen des résultats des tests.

Tests et conclusions

Les tests d'aujourd'hui diffèrent non seulement par le fait que nous comparons quatre cartes vidéo entre elles, mais aussi par le fait que nous les avons produites sur un banc de test différent de celui que vous connaissez, dont la configuration est la suivante :

Le changement de plate-forme de test est dû au fait qu'il était initialement prévu de tester les cartes vidéo Leadtek 8800GTS 512 et ASUS EN8800GTS TOP en mode SLI, mais, malheureusement, à la fin des tests, la carte vidéo ASUS ne pouvait pas supporter notre moquerie, et l'idée s'est effondrée. Par conséquent, nous avons décidé de transférer les tests SLI dans un article séparé dès que nous aurons le matériel nécessaire entre nos mains, mais pour l'instant, nous nous limiterons aux tests de cartes vidéo individuelles. Nous comparerons sept cartes vidéo, dont l'une est overclockée à 756/1890/2100 MHz GeForce 8800GTS 512. À titre de comparaison, nous avons ajouté les cartes vidéo GeForce 8800GT et GeForce 8800GTX fonctionnant aux fréquences recommandées par NVIDIA. Pour vous faciliter la navigation, nous donnons un tableau avec les fréquences d'horloge de tous les participants au test :

Nom de la carte vidéo Fréquence GPU, unité core / shader, MHz Fréquence de mémoire vidéo effective, MHz
Leadtek 8800GTS 512 650 / 1625 1944
HAUT ASUS EN8800GTS 740 / 1780 2072
Leadtek 8800GT 678 / 1674 2000
Palit 8800GT 650 / 1625 1900
GeForce 8800GTS 512 overclockée (sur le schéma 8800GTS 512 756/1890/2100) 756 / 1890 2100
GeForce 8800GT (8800GT sur le schéma) 600 / 1500 1800
GeForce 8800GTX (8800GTX sur le schéma) 575 / 1350 1800

Nous avons utilisé les pilotes ForceWare 169.21 et ForceWare 169.25 pour Windows XP et Windows Vista, respectivement. Nous commençons traditionnellement notre connaissance des résultats des tests avec les tests 3DMark :
Sur la base des résultats des tests 3DMark, bien sûr, vous pouvez voir qui est le plus fort et qui est le plus faible, mais la différence est si petite qu'il n'y a pas de leaders évidents. Mais néanmoins, il convient de noter que le plus cher des participants - la carte vidéo GeForce 8800GTX - a pris les dernières places. Pour compléter le tableau, vous devez vous familiariser avec les résultats des tests de jeu, que nous avons, comme précédemment, produits avec un anti-aliasing 4x et un filtrage anisotrope 16x.
Dans Call of Duty 4, l'attention est attirée sur le fait que la carte vidéo Leadtek 8800GT est presque à égalité avec la Leadtek 8800GTS 512, et la carte vidéo ASUS EN8800 TOP n'est presque pas en retard sur la GeForce 8800GTS 512 overclockée. Le Palit 8800GT la carte vidéo est à l'avant-dernière place, contournant légèrement la référence GeForce 8800GT. La gagnante est la carte vidéo GeForce 8800GTX, apparemment en raison du bus mémoire plus large (par rapport aux autres participants au test).
Dans Call of Juarez sous Windows XP, la carte vidéo Leadtek 8800GTS 512 fait presque jeu égal avec la GeForce 8800GTX, qui n'est plus sauvegardée par un bus mémoire plus large. Notez que la carte vidéo Leadtek 8800GT n'est pas à la traîne, et à une résolution de 1024x768, elle dépasse même, ce qui s'explique par les fréquences plus élevées par rapport aux deux autres cartes vidéo. Les leaders sont la carte vidéo d'ASUS et la GeForce 8800GTS 512 overclockée, et à l'avant-dernière place se trouve à nouveau la carte vidéo de Palit, juste après la GeForce 8800GT.
Call of Juarez sur Windows Vista a rencontré des problèmes avec la résolution 1600x1200, qui a connu de grandes fluctuations de vitesse et très lente à certains endroits. Nous supposons que le problème réside dans le manque de mémoire vidéo dans un mode aussi difficile, et si nous le vérifierons ou non dans le prochain examen en utilisant l'exemple de la carte vidéo ASUS 8800GT avec 1 Go de mémoire vidéo. Notons tout de suite qu'il n'y a eu aucun problème avec la GeForce 8800GTX. Sur la base des résultats dans deux résolutions inférieures, on peut voir que l'alignement des forces par rapport à Windows XP n'a pratiquement pas changé, sauf que la GeForce 8800GTX a rappelé sa noble origine, mais n'est pas devenue un leader.
Dans le jeu Crysis sous Windows XP, l'alignement des forces a légèrement changé, mais en fait tout reste le même : les cartes graphiques Leadtek 8800GTS 512 et Leadtek 8800GT sont à peu près au même niveau, les leaders sont les cartes graphiques ASUS EN8800GTS TOP et le overclocké GeForce 8800GTS 512, et la dernière place revient à la carte vidéo GeForce 8800GT. Notez également qu'à mesure que la résolution augmente, l'écart entre la GeForce 8800GTS 512 overclockée et la GeForce 8800GTX se réduit en raison du bus mémoire plus large de cette dernière. Cependant, les vitesses d'horloge élevées prévalent toujours et le champion d'hier reste sans travail.
Le problème sous Windows Vista avec une résolution de 1600x1200 n'a pas non plus contourné le jeu Crysis, ne passant que la GeForce 8800GTX. Comme dans le jeu Call of Juarez, il y a eu des à-coups de vitesse et à certains endroits une très forte baisse des performances, parfois inférieures à une image par seconde. Sur la base des résultats dans deux résolutions inférieures, on peut voir que cette fois, la carte vidéo Leadtek 8800GTS 512 a contourné sa sœur cadette, prenant la troisième place. Les premières places ont été occupées par les cartes vidéo ASUS EN8800GTS TOP, overclockées par GeForce 8800GTS 512 et GeForce 8800GTX, qui ont finalement pris la tête avec une résolution de 1280x1024.
Dans Need for Speed ​​​​Pro Street Racing, la carte vidéo GeForce 8800GTX est en tête et à une résolution de 1024x768 - de loin. Elle est suivie par la carte vidéo Leadtek 8800GTS 512, suivie de la ASUS EN8800GTS TOP et de la GeForce 8800GTS 512 overclockée, et les dernières places sont occupées par les cartes soniques GeForce 8800GT et Palit 8800GT. Depuis que la carte vidéo GeForce 8800GTX est devenue le leader, nous pouvons conclure que le jeu dépend fortement de la bande passante de la mémoire vidéo. Après cela, nous pouvons supposer pourquoi les versions overclockées de GeForce 8800GTS 512 se sont avérées plus lentes que la version non overclockée. Apparemment, cela est dû aux retards accrus de la mémoire vidéo dus à l'augmentation de sa fréquence d'horloge.
Dans le jeu Need for Speed ​​​​Carbon, nous voyons une image familière: les cartes vidéo Leadtek 8800GTS 512 et Leadtek 8800GT sont à égalité, les GeForce 8800GTS 512 overclockées et ASUS EN8800GTS TOP ont pris les premières places, et la GeForce 8800GT prend la dernière place. La carte vidéo GeForce 8800GTX a l'air bien, mais sans plus.
Dans Oblivion, l'attention est attirée sur le fait qu'à une résolution de 1024x768 les GeForce 8800GTS 512 overclockées et ASUS EN8800GTS TOP ont pris les dernières places. Nous avons supposé que c'était les retards de mémoire qui augmentaient en raison de l'augmentation de la fréquence, et nous avions raison : après avoir abaissé la fréquence de la mémoire de la carte vidéo GeForce 8800GTS 512 overclockée à la valeur nominale, il a montré un résultat de plus de 100 images par seconde . Au fur et à mesure que la résolution grandit, la situation rebondit et d'anciens étrangers deviennent des leaders. Soit dit en passant, l'attention est attirée sur le fait que le Leadtek 8800GT surpasse le Leadtek 8800GTS 512, apparemment, cela est dû à la fréquence élevée de l'unité de shader.
Le jeu Prey s'est avéré peu exigeant pour toutes les cartes vidéo, et elles se sont installées en fonction de leur vitesse d'horloge. Peut-être que la GeForce 8800GTX s'est comportée un peu différemment, mais c'est compréhensible, car elle dispose d'un bus mémoire plus large, et le jeu dépend fortement de sa bande passante.

conclusions

Le but des tests d'aujourd'hui était de déterminer à quel point les cartes vidéo diffèrent les unes des autres et à quel point le prix élevé de la carte vidéo "avancée" GeForce 8800GTS 512 est justifié. La GeForce 8800GTS 512 surpasse la GeForce 8800GT en termes de caractéristiques, y compris en termes de blocs fonctionnels actifs à l'intérieur du GPU. Les avantages évidents des nouvelles cartes vidéo GeForce 8800GTS 512 sont un système de refroidissement silencieux et de haute qualité et un potentiel d'overclocking supérieur à celui de la GeForce 8800GT. La carte vidéo d'ASUS, qui, grâce à l'overclocking d'usine, occupe une position de leader est particulièrement remarquable. Bien sûr, vous pouvez overclocker la carte vous-même et, très probablement, toutes les cartes vidéo GeForce 8800GTS 512 « prendront » les fréquences de la carte vidéo ASUS. Dans l'ensemble, on note encore une fois que la nouvelle famille de cartes vidéo basée sur les puces graphiques G92 s'est avérée très réussie et pourrait bien remplacer la récente leader GeForce 8800GTX.

Avantages et inconvénients des cartes vidéo individuelles :

Leadtek 8800GTS 512

Avantages:
  • bon potentiel d'overclocking ;
  • équipement solide;
  • emballage lumineux et pratique.
Inconvénients :
  • pas remarqué.

HAUT ASUS EN8800GTS

  • Avantages:
  • overclocking d'usine;
  • système de refroidissement de haute qualité;
  • bon potentiel d'overclocking.
Inconvénients :
  • emballage trop grand et peu pratique.

Leadtek 8800GT

Avantages:
  • overclocking d'usine;
  • équipement solide.
Inconvénients :
  • pas remarqué.

Palit 8800GT sonique

Avantages:
  • overclocking d'usine;
  • système de refroidissement alternatif;
  • équipement solide.
Inconvénients :
  • carte fortement incurvée dans la zone GPU ;
  • bruit de ventilateur perceptible.

Encore 128 tireurs californiens plus puissants, mais avec des lances tronquées (512 Mo et 256 bits)

Partie 1 : Théorie et architecture

Dans l'article précédent consacré à la sortie d'une nouvelle solution milieu de gamme Nvidia Geforce 8800 GT basée sur la puce G92, nous évoquions que cette solution utilise une puce dans laquelle toutes les unités d'exécution ALU et TMU ne sont pas déverrouillées, certaines d'entre elles attendent dans les ailes. à inclure dans une carte graphique d'un niveau de prix différent. Et maintenant, le moment est venu, Nvidia a annoncé une version mise à jour de la Geforce 8800 GTS, qui a conservé le même nom que la solution junior basée sur le G80. Il est plus facile de le distinguer par la quantité de mémoire vidéo installée, elle est égale à 512 Mo, contrairement aux versions précédentes de 320 Mo et 640 Mo. Ce modèle a donc été nommé - Geforce 8800 GTS 512MB.

La nouvelle version de la Geforce 8800 GTS est basée sur la puce G92 déjà utilisée dans la Geforce 8800 GT, une carte vidéo de ce qu'on appelle le niveau de prix moyen supérieur, nous connaissons donc déjà les principales caractéristiques et caractéristiques. Contrairement aux deux modèles Geforce 8800 GT avec un prix recommandé de 200 $ à 250 $ (ce qui ne correspond pas bien aux prix réels en ce moment, soit dit en passant), la nouvelle solution a un prix recommandé par le fabricant de 349-399 $. Les particularités de la puce vidéo utilisée sont la prise en charge d'un seul bus mémoire de 256 bits, mais d'un plus grand nombre d'unités d'exécution universelles déverrouillées. Regardons de plus près la nouvelle solution bas de gamme haut de gamme de Nvidia ...

Avant de lire ce document, nous vous recommandons de lire attentivement les documents théoriques de base DX Current, DX Next et Longhorn, qui décrivent divers aspects des accélérateurs graphiques matériels modernes et des caractéristiques architecturales des produits Nvidia et AMD.

Ces matériaux prédisaient avec précision la situation actuelle des architectures de puces vidéo, de nombreuses hypothèses sur les solutions futures étaient justifiées. Pour plus d'informations sur l'architecture unifiée Nvidia G8x / G9x utilisant des puces précédentes comme exemples, consultez les articles suivants :

Comme nous l'avons mentionné dans l'article précédent, la puce G92 comprend tous les avantages du G8x : une architecture de shader unifiée, une prise en charge complète de DirectX 10, des méthodes de filtrage anisotrope de haute qualité et un algorithme CSAA anti-aliasing avec jusqu'à seize échantillons inclus. Certains blocs de la puce sont légèrement différents de ceux du G80, mais le principal changement par rapport au G80 est la technologie 65 nm, qui a réduit les coûts de production. Considérez les caractéristiques du GPU et les nouvelles solutions vidéo basées sur celui-ci :

Accélérateur graphique Geforce 8800 GTS 512 Mo

  • Nom de code de la puce G92
  • Technologie 65 nm
  • 754 millions de transistors (plus que le G80)
  • Architecture unifiée avec une gamme de processeurs partagés pour la diffusion en continu de sommets, pixels et autres types de données
  • Prise en charge matérielle de DirectX 10, y compris le modèle de shader - Shader Model 4.0, génération de géométrie et enregistrement de données intermédiaires à partir de shaders (sortie de flux)
  • Bus mémoire 256 bits, quatre contrôleurs indépendants, largeur 64 bits
  • Fréquence centrale 650 MHz (Geforce 8800 GTS 512 Mo)
  • Les ALU fonctionnent à plus du double de la fréquence (1,625 GHz pour Geforce 8800 GTS 512 Mo)
  • 128 ALU scalaires à virgule flottante (formats entiers et à virgule flottante, prise en charge de la précision FP 32 bits au sein de la norme IEEE 754), MAD + MUL sans perte d'horloge)
  • 64 unités d'adressage de texture avec prise en charge des composants FP16 et FP32 dans les textures
  • 64 blocs de filtrage bilinéaire (comme dans le G84 et le G86, il n'y a pas de filtrage trilinéaire libre et un filtrage anisotrope plus efficace)
  • Possibilité de branchement dynamique dans les shaders de pixels et de vertex
  • 4 blocs ROP larges (16 pixels) avec prise en charge des modes anti-aliasing jusqu'à 16 échantillons par pixel, y compris le format framebuffer FP16 ou FP32. Chaque bloc se compose d'un tableau d'ALU configurables de manière flexible et est responsable de la génération et de la comparaison de Z, MSAA, mélange. Performances maximales de l'ensemble du sous-système jusqu'à 64 échantillons MSAA (+ 64 Z) par cycle d'horloge, en mode Z uniquement - 128 échantillons par cycle d'horloge
  • Enregistrez les résultats avec jusqu'à 8 tampons d'images simultanément (MRT)
  • Toutes les interfaces (deux RAMDAC, deux Dual DVI, HDMI, HDTV) sont intégrées sur la puce (contrairement à la puce externe NVIO pour Geforce 8800)

Spécifications de la carte de référence Geforce 8800 GTS 512Mo

  • Fréquence centrale 650 MHz
  • Fréquence des processeurs universels 1625 MHz
  • Nombre de processeurs universels 128
  • Le nombre d'unités de texture - 64, les unités de mélange - 16
  • Fréquence de mémoire effective 1,94 GHz (2 * 970 MHz)
  • Type de mémoire GDDR3
  • Capacité mémoire 512 mégaoctets
  • Bande passante mémoire 64,0 gigaoctets par seconde.
  • Taux de remplissage théorique maximum de 10,4 gigapixels par seconde.
  • Taux d'échantillonnage de texture théorique jusqu'à 41,6 gigatexels par seconde.
  • Deux connecteurs DVI-I Dual Link, prend en charge la sortie à des résolutions allant jusqu'à 2560x1600
  • connecteur SLI
  • Bus PCI Express 2.0
  • Sortie TV, sortie HDTV, prise en charge HDCP
  • Prix ​​recommandé 349-399 $

Comme vous pouvez le voir sur les spécifications, la nouvelle version Geforce 8800 GTS 512 Mo est assez différente des anciennes. Le nombre d'unités d'exécution a augmenté : ALU et TMU, la fréquence GPU a également augmenté de manière significative, y compris la fréquence des unités de shader. Malgré le bus mémoire tronqué (256 bits contre 320 bits dans les anciennes versions), la bande passante mémoire est restée la même, puisque sa fréquence de fonctionnement a été portée à la valeur correspondante. En conséquence, le nouveau GTS a considérablement augmenté la puissance d'exécution des shaders ainsi que la vitesse de récupération des textures. Dans le même temps, le taux de remplissage et la bande passante mémoire sont restés les mêmes.

En raison de la largeur de bits modifiée du bus mémoire, la taille de ce dernier ne peut plus être égale à 320 Mo ou 640 Mo, mais seulement à 256 Mo, 512 Mo ou 1 Go. La première valeur est trop petite, elle ne suffira évidemment pas pour une carte de cette classe, et la dernière est trop élevée, le gain de performances insignifiant justifiera difficilement l'augmentation du prix de telles variantes (qui pourrait bien apparaître dans le futur) . Par conséquent, Nvidia a choisi la variante du milieu avec un ensemble de cartes de 512 Mo. C'est, comme nos recherches récentes l'ont montré, le juste milieu pour tous les jeux modernes qui exigent beaucoup de mémoire vidéo et utilisent jusqu'à 500-600 mégaoctets. On ne se lasse pas de répéter que cela ne veut pas dire que toutes les ressources du jeu doivent se trouver uniquement dans la mémoire locale de la carte vidéo, la gestion des ressources peut être confiée au contrôle des API, notamment en Direct3D 10 avec virtualisation de la mémoire vidéo.

Architecture

Comme il était écrit dans le précédent article sur la Geforce 8800 GT, on peut dire que le G92 est le précédent flagship du G80, transféré vers un nouveau procédé technique, mais avec quelques modifications. La nouvelle puce dispose de 8 grandes unités de shader et de 64 unités de texture, ainsi que de quatre ROP larges. Malgré tous les changements pour le mieux, le nombre de transistors dans la puce semble être trop grand, probablement, la complexité accrue de la puce s'explique par l'inclusion d'une puce NVIO précédemment séparée dans sa composition, ainsi qu'une nouvelle génération processeur vidéo. De plus, le nombre de transistors a été affecté par les TMU plus complexes, et il est possible d'augmenter les caches pour fournir un bus mémoire 256 bits plus efficace.

Il y a très peu de changements architecturaux dans la puce G92, nous en avons tous parlé dans l'article précédent, et nous ne le referons pas. Tout ce qui a été dit dans les revues des solutions précédentes reste en vigueur, nous ne présentons que le schéma principal de la puce G92, désormais avec les 128 processeurs universels :

De tous les changements dans la puce, par rapport au G80 - seulement un nombre réduit de ROP et quelques changements dans le TMU, qui ont été décrits dans notre matériel précédent. Attardons-nous encore une fois sur le fait que 64 unités de texture dans Geforce 8800 GTS 512 Mo dans des applications réelles dans la plupart des cas ne seront PAS plus fortes que 32 unités dans Geforce 8800 GTX. Avec le filtrage trilinéaire et/ou anisotrope activé, leurs performances seront approximativement les mêmes, puisqu'ils ont le même nombre d'unités de filtrage de données de texture. Bien entendu, lorsque des échantillons non filtrés sont utilisés, les performances des solutions sur le G92 seront plus élevées.

PureVideo HD

L'un des changements attendus du G92 est le processeur vidéo intégré de deuxième génération connu des G84 et G86, qui a reçu une prise en charge étendue de PureVideo HD. Cette version du processeur vidéo décharge presque complètement le CPU lors du décodage de tous les types de données vidéo, y compris les formats "lourds" H.264 et VC-1. Le G92 utilise un nouveau modèle de processeur vidéo programmable PureVideo HD, qui comprend le moteur BSP. Le nouveau processeur prend en charge le décodage des formats H.264, VC-1 et MPEG-2 avec une résolution allant jusqu'à 1920x1080 et un débit binaire allant jusqu'à 30-40 Mbps, effectuant le travail de décodage des données CABAC et CAVLC dans le matériel, qui vous permet de lire tous les lecteurs HD-DVD et Blu-ray existants, même sur des PC monocœur de puissance moyenne. Le décodage VC-1 n'est pas aussi efficace que le H.264, mais il est toujours pris en charge par le nouveau processeur. Vous pouvez en savoir plus sur le processeur vidéo de deuxième génération dans nos critiques de G84 / G86 et G92, dont les liens sont donnés au début de l'article.

PCI Express 2.0

L'une des véritables innovations du G92 est la prise en charge du bus PCI Express 2.0. La deuxième version du PCI Express double la bande passante standard, de 2,5 Gb/s à 5 Gb/s, en conséquence, le connecteur x16 peut transférer des données à des vitesses allant jusqu'à 8 Go/s dans chaque sens, contre 4 Go/ s pour la version 1.x. Il est très important que PCI Express 2.0 soit compatible avec PCI Express 1.1, et les anciennes cartes vidéo fonctionneront sur les nouvelles cartes mères, et les nouvelles cartes vidéo prenant en charge la deuxième version resteront fonctionnelles sur les cartes mères sans sa prise en charge. A condition d'avoir une alimentation externe suffisante et sans augmenter la bande passante de l'interface, bien sûr.

Le principal concurrent de Nvidia a estimé l'impact réel d'une bande passante de bus PCI Express plus élevée sur les performances de ses matériaux. Selon eux, une carte vidéo de milieu de gamme avec 256 mégaoctets de mémoire locale accélère d'environ 10 % lors du passage de PCI Express 1.0 à 2.0 dans les jeux modernes tels que Company of Heroes, Call of Juarez, Lost Planet et World In Conflict, le les indicateurs changent de 5 % à 25 % pour différents jeux et conditions de test. Naturellement, la parole à des résolutions élevées, lorsque le tampon de trame et les tampons associés occupent la majeure partie de la mémoire vidéo locale et que certaines ressources sont stockées dans la mémoire système.

Pour assurer la rétrocompatibilité avec les solutions PCI Express 1.0 et 1.1 existantes, la spécification 2.0 prend en charge les taux de transfert de 2,5 Gbit/s et 5 Gbit/s. La rétrocompatibilité PCI Express 2.0 permet l'utilisation de solutions héritées de 2,5 Gbit/s dans des emplacements de 5,0 Gbit/s, qui fonctionneront à une vitesse inférieure, tandis qu'un appareil conçu selon les spécifications de la version 2.0 peut prendre en charge les vitesses de 2,5 Gbit/s et 5 Gbit/s. ... En théorie, tout va bien avec la compatibilité, mais en pratique, des problèmes peuvent survenir avec certaines combinaisons de cartes mères et de cartes d'extension.

Prise en charge des interfaces externes

Ici, tout est identique à celui de la GeForce 8800 GT, il n'y a pas de différences. Une puce NVIO supplémentaire disponible sur les cartes Geforce 8800, qui prend en charge les interfaces externes en dehors du principal (deux RAMDAC 400 MHz, deux Dual Link DVI (ou LVDS), HDTV-Out), dans ce cas a été incluse dans la puce elle-même, prise en charge de tous ces interfaces intégrées dans le G92 lui-même.

Les cartes vidéo Geforce 8800 GTS 512 Mo ont généralement deux sorties DVI Dual Link avec support HDCP. En ce qui concerne le HDMI, ce connecteur est supporté, il peut être implémenté par les fabricants sur des cartes de conception spéciale. Bien que la présence d'un connecteur HDMI sur une carte vidéo soit totalement facultative, il sera remplacé avec succès par l'adaptateur DVI vers HDMI fourni avec la plupart des cartes vidéo modernes.

Les fabricants pratiquent depuis longtemps la sortie de solutions moins chères basées sur des processeurs graphiques du segment de prix supérieur. Grâce à cette approche, la variation des solutions prêtes à l'emploi augmente considérablement, leur coût diminue et la majorité des utilisateurs préfèrent souvent les produits au rapport prix / performance le plus favorable.
De même, NVIDIA a fait de même avec la dernière puce G80, le premier GPU au monde doté d'une architecture unifiée et prenant en charge la nouvelle API de Microsoft, DirectX 10.
En même temps que le produit phare GeForce 8800 GTX, une version moins chère appelée GeForce 8800 GTS est sortie. Elle se distingue de sa grande sœur par le nombre réduit de processeurs pixels (96 contre 128), la mémoire vidéo (640 Mo au lieu de 768 Mo pour la GTX). La conséquence de la diminution du nombre de puces mémoire a été une diminution de la profondeur de bits de son interface à 320 bits (pour GTX - 384 bits). Des caractéristiques plus détaillées de l'adaptateur graphique en question peuvent être trouvées en examinant le tableau :

La carte vidéo ASUS EN8800GTS est entrée dans notre laboratoire de test, que nous examinerons aujourd'hui. Ce fabricant est l'un des partenaires les plus importants et les plus performants de NVIDIA, et ne lésine traditionnellement pas sur l'emballage et l'emballage. Comme le dit le proverbe, "il devrait y avoir beaucoup de bonnes cartes vidéo". La nouveauté se présente dans un coffret aux dimensions impressionnantes :


Sur sa face avant se trouve un personnage du jeu Ghost Recon: Advanced Warfighter. Le boîtier ne se limite pas à une seule image - le jeu lui-même, comme vous l'avez peut-être deviné, est inclus dans le package. Au verso de l'emballage, il y a de brèves caractéristiques du produit :


ASUS considérait cette quantité d'informations insuffisante, faisant une sorte de livre prêt à l'emploi :


Par souci d'équité, notons que cette méthode est pratiquée depuis assez longtemps et, en aucun cas, pas seulement par ASUS. Mais, comme on dit, tout est bon avec modération. Le contenu d'information maximal s'est transformé en un inconvénient pratique. Un léger souffle de vent et le haut de la pochette s'ouvre. Lors du transport du héros de la revue d'aujourd'hui, nous avons dû inventer et plier la languette de retenue pour qu'elle justifie son objectif. Malheureusement, le plier peut facilement endommager l'emballage. Et enfin, ajoutons que les dimensions de la box sont déraisonnablement grandes, ce qui cause quelques désagréments.

Adaptateur vidéo : ensemble complet et inspection minutieuse

Eh bien, passons directement au paquet et à la carte vidéo elle-même. L'adaptateur est emballé dans un sac antistatique et un conteneur en mousse, ce qui élimine les dommages électriques et mécaniques à la carte. La boîte contient des disques, des adaptateurs DVI -> D-Sub, VIVO et des cordons d'alimentation supplémentaires, ainsi qu'un étui pour les disques.


Parmi les disques inclus dans le kit, le jeu de course GTI et le benchmark 3DMark06 Advanced Edition sont à noter ! 3DMark06 a été repéré pour la première fois dans un bundle d'une carte vidéo série et de masse ! Sans aucun doute, ce fait séduira les utilisateurs activement impliqués dans l'analyse comparative.


Eh bien, passons directement à la carte vidéo. Il est basé sur une carte de circuit imprimé de conception de référence utilisant un système de refroidissement de référence, et il ne diffère des autres produits similaires que par un autocollant avec le logo du fabricant, qui conserve le thème Ghost Recon.


Le verso de la carte de circuit imprimé est également banal - de nombreux composants smd et régulateurs de tension y sont soudés, c'est tout :


Contrairement à la GeForce 8800 GTX, la GTS ne nécessite qu'un seul connecteur d'alimentation supplémentaire :


De plus, elle est plus courte que la sœur aînée, ce qui plaira certainement aux propriétaires de petites carrosseries. En termes de refroidissement, il n'y a pas de différences, et ASUS EN8800GTS, comme le GF 8800 GTX, utilise un refroidisseur avec un grand ventilateur de type turbine. Le radiateur est composé d'une base en cuivre et d'un boîtier en aluminium. Le transfert de chaleur de la base aux ailettes s'effectue en partie par des caloducs, ce qui augmente l'efficacité globale de la structure. De l'air chaud est projeté à l'extérieur de l'unité centrale, mais une partie, hélas, reste à l'intérieur du PC en raison de trous dans le boîtier du système de refroidissement.


Cependant, le problème d'un fort chauffage est facilement résolu. Par exemple, un ventilateur à vitesse lente de 120 mm améliore assez bien les conditions de température de la carte.
En plus du GPU, le refroidisseur refroidit les puces mémoire et les éléments d'alimentation, ainsi que le DAC du signal vidéo (puce NVIO).


Ce dernier a été retiré du processeur principal en raison des hautes fréquences de ce dernier, qui ont provoqué des interférences et, par conséquent, des interférences en fonctionnement.
Malheureusement, cette circonstance entraînera des difficultés lors du changement de refroidisseur, les ingénieurs NVIDIA n'avaient donc tout simplement pas le droit de le faire de mauvaise qualité. Jetons un coup d'œil à la carte vidéo sous sa forme "nue".


Le PCB contient une puce G80 de révision A2, 640 Mo de mémoire vidéo, accumulés par dix puces Samsung. Le temps d'accès mémoire est de 1,2 ns, ce qui est légèrement plus rapide que la GeForce 8800 GTX.


Veuillez noter que la carte a deux emplacements pour les jetons. S'ils étaient soudés au PCB, la taille totale de la mémoire serait de 768 Mo et sa capacité serait de 384 bits. Hélas, le développeur de la carte vidéo a estimé qu'une telle étape était inutile. Ce schéma est utilisé uniquement dans les cartes vidéo professionnelles de la série Quadro.
Enfin, on note que la carte ne possède qu'un seul slot SLI, contrairement à la GF 8800 GTX qui en possède deux.

Tests, analyse des résultats

La carte vidéo ASUS EN8800GTS a été testée sur un banc de test avec la configuration suivante :
  • processeur - AMD Athlon 64 [email protégé] MHz (Venise);
  • carte mère - ASUS A8N-SLI Deluxe, chipset NVIDIA nForce 4 SLI;
  • RAM - 2х512 Mo [email protégé] MHz, synchronisations 3.0-4-4-9-1T.
Les tests ont été effectués dans le système d'exploitation Windows XP SP2, le pilote du chipset version 6.86 a été installé.
L'utilitaire RivaTuner a confirmé la conformité des caractéristiques de la carte vidéo avec celles déclarées :


Les fréquences du processeur vidéo sont 510/1190 MHz, mémoire - 1600 MHz. Le chauffage maximal obtenu après plusieurs exécutions du test Canyon Flight du package 3DMark06 était de 76 ° C à une vitesse de ventilateur du système de refroidissement standard égale à 1360 tr/min :


A titre de comparaison, je dirai que dans les mêmes conditions la GeForce 6800 Ultra AGP qui m'est parvenue chauffe jusqu'à 85°C à la vitesse maximale du ventilateur, et au bout d'un long moment elle se bloque carrément.

Les performances de la nouvelle carte vidéo ont été testées à l'aide de références synthétiques populaires et de certaines applications de jeux.

Les tests effectués par les applications de développement Futuremark ont ​​révélé ce qui suit :


Bien entendu, sur un système doté d'un processeur central plus puissant, par exemple un représentant de l'architecture Intel Core 2 Duo, le résultat serait meilleur. Dans notre cas, l'Athlon 64 moralement dépassé (même s'il est overclocké) ne permet pas de révéler pleinement le potentiel des meilleures cartes vidéo de notre époque.

Passons aux tests dans de vraies applications de jeu.


Need for Speed ​​​​Carbon montre clairement la différence entre les rivaux, et la GeForce 7900 GTX est plus que perceptible par rapport aux cartes de la génération 8800.


Étant donné que Half Life 2 nécessite non seulement une carte vidéo puissante, mais également un processeur rapide pour jouer confortablement, une nette différence de performances n'est observée qu'aux résolutions maximales avec le filtrage anisotrope et l'anticrénelage plein écran activés.


Dans la peur. approximativement la même image est observée que dans HL2.


Dans les modes lourds de Doom 3, la carte en question s'en sort très bien, mais la faiblesse du processeur central ne permet pas d'apprécier pleinement l'écart entre la GeForce 8800 GTS et sa grande sœur.


Puisque Pray est fait sur le moteur Quake 4, qui à son tour est un développement de Doom3, les résultats de performances des cartes vidéo dans ces jeux sont similaires.
La progressivité de la nouvelle architecture de shader unifiée et certaines "réductions" des capacités de sa sœur aînée placent la GeForce 8800 GTS entre l'adaptateur graphique le plus rapide de NVIDIA aujourd'hui et le produit phare de la sept millième ligne. Cependant, il est peu probable que les Californiens aient agi différemment - une nouveauté de cette classe devrait être plus puissante que ses prédécesseurs. Je suis heureux que la GeForce 8800 GTS soit beaucoup plus proche de la GeForce 8800 GTX en termes de capacités de vitesse que de la 7900 GTX. L'optimisme s'inspire également du support des technologies graphiques les plus récentes, ce qui devrait laisser aux propriétaires de tels adaptateurs une bonne marge de performance dans un avenir proche (et, espérons-le, plus lointain).

Verdict

Après examen de la carte, nous avons eu une très bonne impression, qui a été grandement améliorée par le facteur coût du produit. Ainsi, au moment de son apparition sur le marché et quelque temps plus tard, ASUS EN8800GTS, selon price.ru, coûtait environ 16 000 roubles - son prix était clairement surestimé. Maintenant, la carte est vendue pour environ 11 500 roubles pendant une longue période, ce qui ne dépasse pas le coût de produits similaires de concurrents. Cependant, compte tenu de l'offre groupée, l'idée d'ASUS est sans aucun doute dans une position gagnante.

avantages:

  • Prise en charge de DirectX 10 ;
  • structure de puce renforcée (architecture unifiée);
  • excellent niveau de performance;
  • riche équipement;
  • marque célèbre;
  • le prix est comparable aux produits de concurrents moins réputés
Inconvénients:
  • grosse boite pas toujours pratique
Nous remercions le bureau de représentation russe d'ASUS pour la carte vidéo fournie pour les tests.

Les critiques, souhaits et commentaires sur ce matériel sont acceptés dans le forum site Internet.

Vous avez aimé l'article ? A partager entre amis :