Nvidia 8800 gts. Examen de la carte vidéo ASUS EN8800GTS. MSI NX8800GTS-T2D640E-HD-OC : Conception du système de refroidissement

Dans notre article précédent, nous avons examiné ce qui se passe dans la gamme de prix inférieure, dans laquelle AMD a récemment introduit de nouveaux produits - les séries Radeon HD 3400 et HD 3600. Aujourd'hui, nous allons légèrement lever le regard sur la hiérarchie des cartes et parler sur les anciens modèles. Le héros de notre revue cette fois sera GeForce 8800 GTS 512 Mo.

Qu'est-ce que la GeForce 8800 GTS 512 Mo ? Le nom, franchement, ne donne pas de réponse claire. D'une part, il ressemble en quelque sorte aux précédentes solutions haut de gamme basées sur la puce G80. En revanche, la quantité de mémoire est de 512 Mo, soit moins que les prédécesseurs correspondants. En conséquence, il s'avère que l'indice GTS, couplé au nombre 512, induit tout simplement en erreur un acheteur potentiel. Mais en fait, nous parlons, sinon de la plus rapide, en tout cas de l'une des solutions graphiques les plus rapides actuellement présentées par NVIDIA. Et cette carte n'est pas basée sur le G80 obsolète, mais sur le G92 beaucoup plus progressif, sur lequel, soit dit en passant, la GeForce 8800 GT était basée. Pour apporter encore plus de clarté à la description de l'essence de la GeForce 8800 GTS 512 Mo, passons directement aux caractéristiques.

Caractéristiques comparatives GeForce 8800 GTS 512 Mo

Modèle Radeon HD 3870 GeForce 8800 GT GeForce 8800 GTS 640 Mo GeForce 8800 GTS 512 Mo GeForce 8800 GTX
Nom de code principal RV670 G92 G80 G92 G80
Ceux. processus, nm 65 65 90 65 90
Nombre de processeurs de flux 320 112 96 128 128
Nombre de blocs de texture 16 56 24 64 32
Nombre de blocs de mélange 16 16 20 16 24
Fréquence centrale, MHz 775 600 513 650 575
Fréquence unitaire du shader, MHz 775 1500 1180 1625 1350
Fréquence effective de la mémoire vidéo, MHz 2250 1800 1600 1940 1800
Taille de la mémoire vidéo, Mo 512 256 / 512 / 1024 320 / 640 512 768
Largeur en bits du bus d'échange de données, Bit 256 256 320 256 384
Type de mémoire vidéo GDDR3/GDDR4 GDDR3 GDDR3 GDDR3 GDDR3
Interface PCI Express 2.0 PCI Express 2.0 PCI express PCI Express 2.0 PCI express

Jetons un œil au tableau ci-dessus. Sur la base de ces données, nous pouvons conclure que nous avons une solution bien formée et solide qui peut rivaliser avec les sommets actuels de la société californienne. En fait, nous avons une puce G92 à part entière avec des fréquences accrues et une mémoire GDDR3 très rapide fonctionnant à près de 2 GHz. Soit dit en passant, nous avons parlé du fait que dans la version originale, le G92 devait avoir exactement 128 processeurs de flux et 64 unités de texture dans la revue GeForce 8800 GT. Comme vous pouvez le voir, pour un modèle avec l'indice GT, une puce légèrement dépouillée a été allouée pour une raison. Cette décision a permis de délimiter quelque peu le segment des cartes vidéo hautes performances et d'y créer un produit encore plus parfait. De plus, à l'heure actuelle, la production de G92 est déjà bien établie et le nombre de puces capables de fonctionner à des fréquences supérieures à 600 MHz est assez important. Cependant, même dans les premières révisions, le G92 a assez facilement conquis 700 MHz. Vous comprenez que maintenant cette frontière n'est pas la limite. Nous aurons le temps de vérifier cela au cours du matériel.

Nous avons donc devant nous un produit de la société XFX - carte vidéo GeForce 8800 GTS 512 Mo. C'est ce modèle qui va devenir l'objet de notre étude approfondie aujourd'hui.

Enfin, nous avons le tableau lui-même. La conception de référence sert de base au produit XFX, donc tout ce qui sera dit sur ce produit peut être appliqué à la plupart des solutions d'autres sociétés. Après tout, ce n'est un secret pour personne qu'aujourd'hui la grande majorité des fabricants basent la conception de leurs produits exactement sur ce que propose NVIDIA.

Concernant la GeForce 8800 GTS 512 Mo, force est de constater que le circuit imprimé est emprunté à la GeForce 8800 GT. Il a été considérablement simplifié par rapport aux cartes vidéo basées sur le G80, mais il répond pleinement aux exigences de la nouvelle architecture. Du coup, on peut conclure que la sortie de la GeForce 8800 GTS 512 Mo n'a guère été compliquée. Nous avons le même PCB et presque la même puce que son prédécesseur avec l'indice GT.

Quant à la taille de la carte vidéo considérée, à cet égard, elle correspond parfaitement à la GeForce 8800 GTS 640 Mo. Ce que vous pouvez voir par vous-même sur la base de la photo ci-dessus.

NVIDIA a jugé bon d'apporter des modifications au système de refroidissement. Il a subi de sérieux changements et ressemble maintenant à un refroidisseur GeForce 8800 GTS 640 Mo classique plutôt qu'à un GeForce 8800 GT.

La conception du refroidisseur est assez simple. Il se compose d'ailettes en aluminium, qui sont soufflées par une turbine correspondante. Les ailettes du radiateur sont percées de caloducs en cuivre d'un diamètre de 6 mm chacun. Le contact avec la puce s'effectue au moyen d'une semelle en cuivre. La chaleur est retirée de la base et transférée au dissipateur thermique, où elle est ensuite dissipée.

Notre exemplaire de la GeForce 8800 GTS était équipé de la puce G92, révision A2, sortie à Taïwan. La mémoire est remplie de 8 puces Qimonda avec un temps d'accès de 1,0 ns.

Enfin, nous avons inséré la carte graphique dans le slot PCI-E. La carte a été déterminée sans aucun problème et a permis d'installer les pilotes. Il n'y a pas eu de difficultés concernant les logiciels auxiliaires. GPU-Z affichait assez correctement toutes les informations nécessaires.

La fréquence du GPU est de 678 MHz, la mémoire - 1970 MHz, le domaine du shader - 1700 MHz. Du coup, on voit à nouveau que le XFX ne change pas son habitude de monter les fréquences au-dessus de celles d'usine. Certes, cette fois, l'augmentation est faible. Mais généralement, il y a beaucoup de cartes de la même série dans l'assortiment de l'entreprise, qui diffèrent par leurs fréquences. Certains d'entre eux sont certainement grands.

Riva Tuner ne nous a pas non plus laissé tomber et a affiché toutes les informations sur la surveillance.

Après cela, nous avons décidé de vérifier dans quelle mesure la glacière ordinaire faisait bien son travail. La GeForce 8800 GT avait de sérieux problèmes avec cela. Le système de refroidissement avait une marge d'efficacité assez douteuse. Ceci, bien sûr, était suffisant pour utiliser la carte à sa valeur nominale, mais plus nécessitait un remplacement plus frais.

Cependant, la GeForce 8800 GTS convient à cela. Après une longue charge, la température n'est montée qu'à 61 °C. C'est un excellent résultat pour une solution aussi productive. Cependant, chaque baril de miel a sa propre mouche dans la pommade. Ça n'a pas marché ici sans ça. Malheureusement, le système de refroidissement est terriblement bruyant. De plus, le bruit devient assez désagréable déjà à 55°C, ce qui nous a même surpris. Après tout, la puce n'a presque pas chauffé. Pourquoi la turbine commence-t-elle à travailler intensément ?

Ici, Riva Tuner est venu à la rescousse. Cet utilitaire est utile non seulement parce qu'il vous permet d'overclocker et d'ajuster le fonctionnement de la carte vidéo, mais a également des fonctions pour contrôler la vitesse du refroidisseur, si, bien sûr, la carte elle-même prend en charge cette option.

Nous avons décidé de régler le RPM à 48% - c'est un fonctionnement absolument silencieux de la carte, lorsque vous pouvez complètement oublier son bruit.

Cependant, de tels ajustements ont entraîné une augmentation de la température. Cette fois, il faisait 75°C. Bien sûr, la température est un peu élevée, mais à notre avis, cela vaut la peine de se débarrasser du gémissement de la turbine.

Cependant, nous ne nous sommes pas arrêtés là. Nous avons décidé de vérifier le comportement de la carte vidéo lors de l'installation d'un système de refroidissement alternatif.

Le choix s'est porté sur Thermaltake DuOrb, un système de refroidissement efficace et élégant qui a bien refroidi la GeForce 8800 GTX.

La température a baissé de 1 °C par rapport au refroidisseur standard fonctionnant en vitesse automatique (en charge, la vitesse est montée automatiquement à 78 %). Eh bien, bien sûr, la différence d'efficacité est négligeable. Cependant, le niveau de bruit est également devenu nettement inférieur. Certes, vous ne pouvez pas non plus appeler Thermaltake DuOrb silencieux.

En conséquence, le nouveau refroidisseur standard de NVIDIA ne laisse que des impressions favorables. Il est très efficace et, en plus, permet de régler n'importe quel niveau de vitesse, ce qui conviendra aux amateurs de silence. De plus, même dans ce cas, bien que ce soit pire, il fait face à la tâche.

Enfin, mentionnons le potentiel d'overclocking. Soit dit en passant, il s'est avéré que c'était la même chose pour le refroidisseur d'origine et DuOrb. Le cœur a été overclocké à 805 MHz, le domaine de shader à 1944 MHz et la mémoire à 2200 MHz. On ne peut que se réjouir que la meilleure solution, qui a initialement des fréquences élevées, ait encore une marge solide, et cela vaut tant pour la puce que pour la mémoire.

Nous avons donc passé en revue la carte vidéo GeForce 8800 GTS 512 Mo fabriquée par XFX. À ce stade, nous pourrions passer en douceur à la partie test, mais nous avons décidé de parler d'une autre solution intéressante, cette fois du camp ATI, fabriquée par PowerColor.

La principale caractéristique de cette carte vidéo est la mémoire DDR3. Permettez-moi de vous rappeler que la plupart des entreprises produisent des Radeon HD 3870 avec DDR4. La version de référence était également équipée du même type de mémoire. Cependant, PowerColor choisit assez souvent des méthodes non standard et dote ses produits de fonctionnalités différentes des autres.

Cependant, un autre type de mémoire n'est pas la seule différence entre la carte PowerColor et les solutions tierces. Le fait est que la société a également décidé d'équiper la carte vidéo non pas d'une turbine standard, qui, soit dit en passant, est assez efficace, mais d'un produit encore plus productif de ZeroTherm - le refroidisseur GX810.

PCB simplifié. Pour la plupart, cela a affecté le système d'alimentation électrique. Quatre condensateurs céramiques doivent être présents dans cette zone. De plus, sur la plupart des planches, ils sont situés dans une rangée, proches les uns des autres. Il en reste trois sur le tableau de PowerColor - deux d'entre eux sont situés là où ils devraient être et un autre est déplacé vers le haut.

La présence d'un radiateur en aluminium sur les circuits de puissance atténue quelque peu l'impression de telles caractéristiques. Pendant la charge, ils sont capables de chauffer sérieusement, donc le refroidissement ne sera pas superflu.

Les puces mémoire sont recouvertes d'une plaque de cuivre. A première vue, cela peut plaire, car il s'agit d'un élément qui permet de réduire la température lorsque la mémoire est chauffée. Cependant, en réalité, les choses ne sont pas tout à fait ainsi. Tout d'abord, la plaque sur cette copie de la carte n'a pas pu être retirée. Apparemment, il est fermement attaché à l'adhésif thermofusible. Peut-être, si vous faites un effort, le radiateur peut être retiré, mais nous ne sommes pas devenus zélés. Par conséquent, nous n'avons pas découvert quelle mémoire est installée sur la carte.

La deuxième chose pour laquelle PowerColor ne peut pas être loué est que le refroidisseur a une conception capable de diriger l'air vers le PCB, réduisant ainsi sa température. Cependant, la plaque empêche partiellement ce soufflage. Vous ne pouvez pas dire que cela interfère du tout. Mais n'importe quel dissipateur thermique de mémoire serait une bien meilleure option. Ou, du moins, vous ne devez pas utiliser d'interface thermique, après quoi la plaque ne peut pas être retirée.

Non sans problèmes et le refroidisseur lui-même. Oui, bien sûr, ZeroTherm GX810 est un bon refroidisseur. Son efficacité est excellente. Ceci est grandement facilité par un bol tout en cuivre servant de dissipateur thermique avec un long tube de cuivre traversant toutes les ailettes. Mais le problème est qu'un connecteur à 2 broches est soudé sur la carte. En conséquence, le refroidisseur fonctionne toujours dans le même mode, à savoir le maximum. Dès le moment où vous allumez l'ordinateur, le ventilateur du refroidisseur tourne à vitesse maximale, créant un bruit très grave. On pourrait s'en passer si on ne faisait référence qu'à la 3D, après tout on connaissait les Radeon X1800 et X1900 plus bruyantes, mais quand le ventirad est si bruyant en 2D... Ça ne peut qu'agacer.

Je suis content que ce problème soit résolu. Après tout, vous pouvez utiliser le régulateur de vitesse. Nous, par exemple, avons fait exactement cela. Le refroidisseur est silencieux aux vitesses minimales, mais l'efficacité chute immédiatement. Il existe une autre option - changer le refroidissement. Nous l'avons aussi essayé. Pour ce faire, nous avons pris le même Thermaltake DuOrb et constaté que l'installation n'était pas possible.

D'une part, les trous de montage conviennent, mais les gros condensateurs sur le PCB empêchent les fixations. En conséquence, nous concluons notre inspection du conseil d'administration sur une note plutôt négative. Passons au comportement de la carte vidéo lorsqu'elle est installée sur un ordinateur.

La fréquence cœur est de 775 MHz, ce qui correspond à la référence. Mais la fréquence de la mémoire est bien inférieure à la valeur traditionnelle - seulement 1800 MHz. Cependant, cela ne devrait pas être particulièrement surprenant. Nous parlons de DDR3. C'est donc un indicateur tout à fait raisonnable. Gardez également à l'esprit que la DDR4 a une latence nettement plus élevée. Ainsi, la performance finale sera approximativement au même niveau. La différence n'apparaîtra que dans les applications gourmandes en bande passante.

Au fait, j'attire votre attention sur le fait que la carte dispose du BIOS 10.065. Il s'agit d'un firmware assez ancien et il a probablement un bug PLL VCO. Par conséquent, vous ne pourrez pas overclocker votre carte au-dessus de 862 MHz. Cependant, la réparation est assez simple. Pour ce faire, il suffit de mettre à jour le BIOS.

Riva Tuner a affiché toutes les informations nécessaires sur les fréquences et la température sans aucun problème.

La température dans la charge était de 55 ° C, c'est-à-dire que la carte n'a presque pas chauffé. La seule question qui se pose est : s'il existe une telle marge d'efficacité, pourquoi n'utiliser que la vitesse maximale pour le refroidisseur ?

Parlons maintenant de l'overclocking. En général, ce n'est un secret pour personne que la marge de fréquence du RV670 est assez petite, mais notre copie s'est avérée terriblement petite. Nous n'avons réussi à augmenter la fréquence que de 8 MHz, soit jusqu'à 783 MHz. La mémoire a montré des résultats plus remarquables - 2160 MHz. Nous pouvons en conclure que la carte utilise très probablement de la mémoire avec un temps d'accès de 1,0 ns.

Étude des performances de la carte graphique

Vous pouvez voir la liste des participants au test ci-dessous :

  • GeForce 8800 GTS 512 Mo (650/1625/1940) ;
  • GeForce 8800 GTS 640 Mo (513/1180/1600) ;
  • Radeon HD 3870 DDR3 512 Mo (775/1800) ;
  • Radeon HD 3850 512 Mo (670/1650).

banc d'essai

Pour connaître le niveau de performance des cartes vidéo décrites ci-dessus, nous avons assemblé un système de test avec la configuration suivante :

  • Processeur - Core 2 Duo E6550 (333×7, L2=4096 Ko) @ (456×7 = 3192 MHz) ;
  • Système de refroidissement - Xigmatek HDT-S1283 ;
  • Interface thermique - Arctic Cooling MX-2 ;
  • RAM - Corsair TWIN2v6400С4-2048 ;
  • Carte mère - Asus P5B Deluxe (Bios 1206);
  • Alimentation - Silverstone DA850 (850 W);
  • Disque dur - Serial-ATA Western Digital 500 Go, 7 200 tr/min ;
  • Système d'exploitation - Windows XP Service Pack 2 ;
  • Pilote vidéo - Forceware 169.21 pour les cartes vidéo NVIDIA, Catalyseur 8.3 pour les cartes AMD ;
  • Moniteur - Benq FP91GP.

Pilotes utilisés

Le pilote ATI Catalyst a été configuré comme suit :

  • Catalyst A.I. Standard ;
  • Niveau de détail MipMap : haute qualité ;
  • Attendre le rafraîchissement vertical : toujours désactivé ;
  • Anticrénelage adaptatif : désactivé ;
  • Anticrénelage temporel : désactivé

Le pilote ForceWare, à son tour, a été utilisé avec les paramètres suivants :

  • Filtrage de texture : haute qualité ;
  • Optimisation d'échantillon anisotrope : désactivé ;
  • Optimisation trilinéaire : désactivé ;
  • Optimisation des threads : activée ;
  • Anticrénelage gamma correct : activé ;
  • Anti-crénelage de transparence : désactivé
  • Synchronisation verticale : forcer l'arrêt ;
  • Autres paramètres : par défaut.

Packs de tests utilisés :

  • Condamnation, version 1.1— test dans l'utilitaire BenchemAll. Pour un test sur un des niveaux du jeu, nous avons enregistré une démo ;
  • Proie, version 1.3- tests via HOC Benchmark, démo HWzone. Booster les graphismes éteint. Qualité d'image Le plus élevé. Double démo ;
  • PEUR, Build 1.0.8- test via le benchmark intégré. Ombres douces éteindre;
  • Need For Speed ​​​​Carbon, version 1.4— paramètres de qualité maximum. flou de mouvement désactivé. Les tests ont été effectués avec Fraps;
  • Timeshift build 1.2- Les détails ont été forcés en deux versions : High Detail et Very High Detail. Les tests ont été effectués avec Fraps;
  • Unreal Tournament 3 version 1.2— paramètres de qualité maximum. Démo exécutée au niveau VCTF ? Suspense ;
  • Monde en conflit, version 1.007— deux paramètres ont été utilisés : Moyen et Élevé. Dans le second cas, les filtres de qualité (filtrage anisotrope et anti-aliasing) étaient désactivés. Les tests ont été effectués à l'aide du benchmark intégré ;
  • version 1.2 de Crysis- Tests en modes Moyen et Élevé. Les tests ont eu lieu via Fraps.

* Après le nom du jeu, build est indiqué, c'est-à-dire la version du jeu. Nous essayons d'atteindre une objectivité maximale du test, nous n'utilisons donc que des jeux avec les derniers correctifs.

Résultats de test

Pour commencer, NVIDIA a installé le G80 sur 2 cartes vidéo : GeForce 8800 GTX et GeForce 8800 GTS.

Spécifications de la série GeForce 8800
GeForce 8800 GTX GeForce 8800 GTS
Nombre de transistors 681 millions 681 millions
Horloge centrale (y compris l'allocateur, les unités de texture, les unités ROP) 575 MHz 500 MHz
Fréquence de shader (processeurs de flux) 1350 MHz 1200 MHz
Nombre de shaders (processeurs de flux) 128 96
Fréquence mémoire 900 MHz (effectif 1,8 GHz) 800 MHz (effectif 1,6 GHz)
Interface mémoire 384 bits 320 bits
Bande passante mémoire (Go/s) 86,4 Go/s 64 Go/s
Nombre de blocs ROP 24 20
Taille mémoire 768 Mo 640 Mo

Comme vous pouvez le voir, le nombre de transistors dans les GeForce 8800 GTX et 8800 GTS est le même, car ce sont des GPU G80 absolument identiques. Comme déjà mentionné, la principale différence entre ces options GPU est 2 banques de processeurs de flux désactivées - un total de 32 shaders. Dans le même temps, le nombre d'unités de shader de travail a été réduit de 128 pour la GeForce 8800 GTX à 96 pour la GeForce 8800 GTS. NVIDIA a également désactivé 1 ROP (unité de rastérisation).

Les fréquences cœur et mémoire de ces cartes vidéo sont également légèrement différentes : la fréquence cœur de la GeForce 8800 GTX est de 575 MHz, tandis que celle de la GeForce 8800 GTS est de 500 MHz. Les unités Shader GTX fonctionnent à une fréquence de 1350 MHz, GTS - 1200 MHz. Avec la GeForce 8800 GTS, NVIDIA utilise également une interface mémoire plus étroite de 320 bits et 640 Mo de mémoire plus lente qui tourne à 800 MHz. La GeForce 8800 GTX dispose d'une interface mémoire 384 bits, 768 Mo de mémoire / 900 MHz. Et, bien sûr, un prix complètement différent.

Les cartes vidéo elles-mêmes sont très différentes :


Comme vous pouvez le voir sur ces photos, les cartes de référence GeForce 8800 sont noires (une première pour NVIDIA). Avec un module de refroidissement, les GeForce 8800 GTX et 8800 GTS sont à deux emplacements. La GeForce 8800 GTX est légèrement plus longue que la GeForce 8800 GTS : sa longueur est de 267 mm, contre 229 mm pour la GeForce 8800 GTS, et, comme indiqué précédemment, le connecteur d'alimentation GeForce 8800 GTX 2 PCIe. Pourquoi 2 ? La consommation électrique maximale de la GeForce 8800 GTX est de 177 W. Cependant, NVIDIA dit que cela ne peut être qu'un cas extrême, lorsque toutes les unités fonctionnelles du GPU sont chargées au maximum, et dans les jeux normaux lors des tests, la carte vidéo a consommé en moyenne 116 - 120 W, maximum - 145 W .

Étant donné que chaque connecteur d'alimentation PCIe externe sur la carte vidéo elle-même est évalué pour un maximum de 75 W, et que l'emplacement PCIe est également évalué pour un maximum de 75 W, 2 de ces connecteurs ne suffiront pas à fournir 177 W, j'ai donc dû faire 2 connecteurs d'alimentation PCIe externes. En ajoutant un deuxième connecteur, NVIDIA a fourni à la 8800 GTX une solide marge. Soit dit en passant, la consommation électrique maximale du 8800 GTS est de 147 W, il peut donc se débrouiller avec un seul connecteur d'alimentation PCIe.

Une autre fonctionnalité ajoutée à la conception de la carte de référence GeForce 8800 GTX est un deuxième slot SLI, une première pour les GPU NVIDIA. NVIDIA n'annonce pas officiellement le but du deuxième connecteur SLI, mais les journalistes ont réussi à obtenir les informations suivantes des développeurs : « Le deuxième connecteur SLI de la GeForce 8800 GTX est destiné au support matériel d'une éventuelle extension de la configuration SLI. Un seul connecteur SLI est utilisé avec les pilotes actuels. Les utilisateurs peuvent connecter le pont SLI aux premier et deuxième groupes de contacts.

Sur cette base, et du fait que les cartes mères nForce 680i SLI sont équipées de trois emplacements PCI Express (PEG), nous pouvons conclure que NVIDIA prévoit de prendre en charge trois cartes vidéo SLI dans un proche avenir. Une autre option serait d'augmenter la puissance de la physique SLI, mais cela n'explique pas pourquoi la GeForce 8800 GTS n'a pas de second connecteur SLI.

On peut supposer que NVIDIA réserve sa technologie GX2 "Quad SLI" à la moins puissante GeForce 8800 GTS, tandis que la plus puissante GeForce 8800 GTX fonctionnera dans une configuration triple SLI.

Si vous vous souvenez, les performances des cartes graphiques Quad SLI d'origine de NVIDIA sont plus proches de la GeForce 7900 GT que de la GeForce 7900 GTX, car les cartes vidéo 7900 GT ont une consommation d'énergie/dissipation thermique inférieure. Il est naturel de supposer que NVIDIA suivra le même chemin avec la GeForce 8800. Les joueurs équipés de cartes mères à trois emplacements PEG pourront augmenter les performances du sous-système graphique en assemblant une configuration triple SLI 8800 GTX, ce qui dans certains cas donnera leur meilleure performance que le système Quad SLI, à en juger par les caractéristiques de la 8800 GTS.

Encore une fois, ce n'est qu'une supposition.

Le bloc de refroidissement des GeForce 8800 GTS et 8800 GTX est à double slot, canalisé, amenant l'air chaud du GPU à l'extérieur du boîtier de l'ordinateur. Le dissipateur thermique se compose d'un grand dissipateur thermique en aluminium, de caloducs en cuivre et en aluminium et d'une plaque de cuivre qui appuie contre le GPU. Toute cette structure est soufflée par un grand ventilateur de type radial, qui a l'air un peu intimidant, mais qui est en fait assez silencieux. Le système de refroidissement de la 8800 GTX est similaire à celui de la 8800 GTS, seul le premier a un radiateur légèrement plus long.


En général, le nouveau refroidisseur fait un assez bon travail de refroidissement du GPU, et en même temps il est presque silencieux - comme les cartes vidéo GeForce 7900 GTX et 7800 GTX 512 Mo, mais les GeForce 8800 GTS et 8800 GTX sont un peu plus audible. Dans certains cas, pour entendre le bruit du ventilateur de la carte vidéo, vous devrez bien écouter.

Production

Toute la production des GeForce 8800 GTX et 8800 GTS est réalisée sous contrat NVIDIA. Cela signifie que, que vous achetiez une carte vidéo d'ASUS, EVGA, PNY, XFX ou de tout autre fabricant, elles sont toutes fabriquées par la même société. NVIDIA n'autorise même pas les fabricants à overclocker les premiers lots de cartes vidéo GeForce 8800 GTX et GTS : elles sont toutes mises en vente avec les mêmes vitesses d'horloge quel que soit le fabricant. Mais ils sont autorisés à installer leurs propres systèmes de refroidissement.

Par exemple, EVGA a déjà sorti son e-GeForce 8800 GTX ACS3 Edition avec son refroidisseur ACS3 unique. La carte vidéo ACS3 est cachée dans un seul grand cocon en aluminium. Il y a les lettres E-V-G-A dessus. Pour un refroidissement supplémentaire, EVGA a placé un dissipateur thermique supplémentaire à l'arrière de la carte graphique, directement en face du GPU G80.

En plus du refroidissement, les fabricants des premières cartes vidéo GeForce 8800 peuvent personnaliser leurs produits uniquement avec des obligations de garantie et des offres groupées - jeux et accessoires. Par exemple, EVGA regroupe ses cartes graphiques avec Dark Messiah, la GeForce 8800 GTS BFG est livrée avec un t-shirt BFG et un tapis de souris.

Il sera intéressant de voir ce qui se passera ensuite - de nombreux partenaires NVIDIA pensent que pour les futures versions des cartes vidéo GeForce 8800, les restrictions de NVIDIA ne seront pas aussi strictes et qu'ils pourront rivaliser en matière d'overclocking.

Étant donné que toutes les cartes vidéo proviennent du même pipeline, toutes les GeForce 8800 prennent en charge 2 connecteurs DVI et HDCP à double liaison. De plus, on a appris que NVIDIA ne prévoyait pas de modifier la quantité de mémoire dans GeForce 8800 GTX et GTS (par exemple, 256 Mo GeForce 8800 GTS ou 512 Mo 8800 GTX). Au moins pour l'instant, la configuration standard pour la GeForce 8800 GTX est de 768 Mo, et la GeForce 8800 GTS est de 640 Mo. NVIDIA n'a pas non plus l'intention de créer une version AGP des cartes vidéo GeForce 8800 GTX/GTS.

Pilote pour 8800

NVIDIA a apporté quelques modifications au pilote GeForce 8800 qu'il convient de mentionner. Tout d'abord, l'utilitaire d'overclocking traditionnel Coolbits a été supprimé, remplacé par NVIDIA nTune. Autrement dit, si vous souhaitez overclocker la carte vidéo GeForce 8800, vous devrez télécharger l'utilitaire nTune. C'est probablement bon pour les propriétaires de cartes mères basées sur le chipset nForce, car l'utilitaire nTune peut être utilisé non seulement pour l'overclocking d'une carte vidéo, mais également pour la configuration du système. Sinon, ceux qui, par exemple, ont réussi à passer au Core 2 et ont une carte mère avec un chipset 975X ou P965, devront télécharger une application de 30 Mo pour overclocker la carte vidéo.

Un autre changement dans le nouveau pilote que nous avons remarqué est qu'il n'y a pas d'option pour passer au panneau de configuration NVIDIA classique. Espérons que NVIDIA ramènera cette fonctionnalité dans son pilote vidéo car elle a été appréciée par beaucoup, contrairement à la nouvelle interface du panneau de configuration NVIDIA.

La 8800 GTX a marqué une étape importante dans l'histoire des graphismes 3D. C'était la première carte à prendre en charge DirectX 10 et son modèle de shader unifié associé, qui a considérablement amélioré la qualité d'image par rapport aux générations précédentes, et en termes de performances, elle est restée inégalée pendant longtemps. Malheureusement, tout ce pouvoir a un coût. Compte tenu de la concurrence attendue d'ATI et de la sortie de modèles de milieu de gamme moins chers basés sur la même technologie, la GTX était considérée comme une carte destinée uniquement aux passionnés qui souhaitaient être à la pointe des avancées du traitement graphique moderne.

Historique du modèle

Pour remédier à cette situation, nVidia a publié une carte GTS 640 Mo de la même ligne un mois plus tard, et quelques mois plus tard - la GTS 320 Mo. Les deux offraient des performances proches de la GTX, mais à un prix bien plus raisonnable. Cependant, à environ 300 $ à 350 $, ils étaient encore trop chers pour les joueurs à petit budget - ce n'étaient pas des modèles de milieu de gamme, mais des modèles haut de gamme. Avec le recul, les GTS valaient chaque centime investi, car ce qui a suivi tout au long de l'année 2007 a été une déception après l'autre.

Les premières cartes à apparaître étaient les prétendues cartes 8600 GTS et GT de milieu de gamme, qui étaient des versions fortement dépouillées de la série 8800. Elles étaient plus petites et plus silencieuses et avaient de nouvelles capacités de traitement vidéo HD, mais leurs performances étaient inférieures aux attentes. Leur acquisition n'était pas pratique, même si elles étaient relativement peu coûteuses. La carte graphique alternative, l'ATI Radeon HD 2900 XT, correspondait à la GTS 640 Mo en termes de performances, mais consommait d'énormes quantités d'énergie sous charge et était trop chère pour être dans le milieu de gamme. Enfin, ATI a tenté de sortir la série DX10 sous la forme des HD 2600 XT et Pro, qui avaient des capacités multimédia encore meilleures que le nVidia 8600, mais manquaient de puissance pour mériter l'attention des joueurs qui avaient déjà acheté la génération précédente. cartes vidéo telles que X1950 Pro ou 7900GS.

Et maintenant, un an après le début des ventes de la 8800 GTX avec la sortie de la 8800 GT, la première véritable mise à jour du modèle avec prise en charge de DirectX 10 est apparue. Bien que cela ait pris beaucoup de temps, la nVidia GeForce 8800 GT avait le caractéristiques du modèle GTS, et le coût était de l'ordre de 200 à 250 $ , a finalement atteint cette fourchette de prix moyenne que tout le monde attendait. Mais qu'est-ce qui rendait la carte si spéciale ?

Plus ne veut pas dire mieux

À mesure que la technologie et le nombre de transistors dans les CPU et les GPU progressent, il est naturellement nécessaire de réduire leur taille. Cela conduit à une consommation d'énergie réduite, ce qui signifie moins de chaleur. Plus de processeurs tiennent sur une seule puce de silicium, ce qui réduit leur coût et donne théoriquement une limite de prix inférieure pour l'équipement fabriqué à partir d'eux. Cependant, l'évolution des processus de production présente des risques élevés pour les entreprises, il est donc d'usage de sortir une toute nouvelle architecture basée sur des technologies déjà existantes et éprouvées, comme ce fut le cas avec les 8800 GTX et HD 2900 XT. Avec l'amélioration de l'architecture, il y a une transition vers un matériel moins gourmand en énergie, sur lequel le nouveau design est ensuite basé à nouveau.

La série 8800 a suivi cette voie, avec les cœurs G80 des GTX et GTS fabriqués en technologie 90 nm, tandis que la nVidia GeForce 8800 GT est basée sur la puce G92, déjà fabriquée en utilisant le procédé 65 nm. Bien que le changement ne semble pas important, il équivaut à une réduction de 34 % de la taille de la tranche ou à une augmentation de 34 % du nombre de processeurs sur une tranche de silicium. En conséquence, les composants électroniques deviennent plus petits, moins chers, plus économiques, ce qui est un changement extrêmement positif. Cependant, le noyau G92 n'est pas seulement plus petit, il y a autre chose.

Tout d'abord, le moteur de traitement vidéo VP2 qui était utilisé dans la série 8600 fait maintenant son apparition dans la GeForce 8800 GT 512 Mo. Il est désormais possible de profiter de la vidéo HD sans ralentissement du système. Le moteur d'affichage final, qui est contrôlé par une puce séparée sur la 8800 GTX, est également intégré au G92. En conséquence, il y a 73 millions de transistors de plus sur une puce que la 8800 GTX (754 millions contre 681 millions), bien que le nombre de processeurs de flux, la puissance de traitement des textures et le ROP soient devenus inférieurs à ceux d'un modèle plus puissant.

La nouvelle version de l'algorithme anti-aliasing transparent de nVidia, ajoutée à l'arsenal GeForce 8800 GT, est conçue pour améliorer considérablement la qualité d'image tout en maintenant des performances système élevées. De plus, le nouveau processeur n'a pas ajouté de nouvelles capacités graphiques.

Le fabricant a apparemment longtemps réfléchi aux fonctionnalités des cartes précédentes de la série 8800 qui n'étaient pas pleinement utilisées et pouvaient être réduites, et lesquelles devaient être laissées. Le résultat est une conception de GPU qui se situe quelque part entre la GTX et la GTS en termes de performances, mais avec la fonctionnalité GTS. En conséquence, la carte 8800 GTS est devenue complètement redondante. Les 8800 Ultra et GTX fournissent toujours plus de puissance graphique, mais avec moins de fonctionnalités, à un prix beaucoup plus élevé et une consommation d'énergie plus élevée. Dans ce contexte, la GeForce 8800 GT 512 Mo a vraiment pris une position forte.

Architecture GPU

La GeForce 8800 GT utilise la même architecture unifiée que nVidia a introduite lors de la première annonce du processeur G80. Le G92 se compose de 754 millions de transistors et est fabriqué à l'aide du procédé 65 nm de TSMC. La taille de la plaquette est d'environ 330 mm2, et bien qu'elle soit sensiblement plus petite que la G80, elle est encore loin d'être appelée un petit morceau de silicium. Il y a un total de 112 cœurs de flux scalaires qui fonctionnent à 1500 MHz en configuration standard. Ils sont regroupés en 7 clusters, chacun avec 16 processeurs de flux qui partagent 8 unités d'adresse de texture, 8 sections de filtre de texture et leur propre cache indépendant. Il s'agit de la même configuration que nVidia a utilisée dans les puces G84 et G86 au niveau du cluster de shaders, mais le G92 est un GPU beaucoup plus sophistiqué que l'un ou l'autre.

Chacun des processeurs de shader peut générer deux instructions MADD et MUL en un cycle, les blocs combinés en une seule structure peuvent traiter toutes les opérations et tous les calculs de shader qui se présentent sous forme de nombre entier et de virgule flottante. Curieusement, bien que les processeurs de flux soient capables d'être les mêmes que le G80 (à part le nombre et la fréquence), Nvidia affirme que la puce peut faire jusqu'à 336 GFLOPS. Cependant, 504 GFLOPS sont nécessaires pour calculer NADD et MUL. Il s'est avéré que le fabricant a utilisé une approche conservatrice pour déterminer la puissance de calcul et n'a pas pris en compte le MUL dans le calcul de la performance globale. Lors de briefings et de tables rondes, les représentants de nVidia ont déclaré que certaines améliorations architecturales devraient permettre à la puce d'approcher sa bande passante maximale théorique. En particulier, le gestionnaire de tâches a été amélioré, distribuant et équilibrant les données qui transitent par le pipeline. NVidia a annoncé qu'il prendrait en charge la double précision dans les futurs GPU, mais cette puce n'émule que la double précision en raison de la nécessité de suivre les normes IEEE.

Architecture ROP

La structure ROP du G92 est similaire à celle de tout autre processeur graphique de la série GeForce 8. Cela signifie que chaque section a un cache de deuxième niveau et est affectée à un canal mémoire 64 bits. Il y a un total de 4 sections ROP et une interface de stockage 256 bits. Chacun d'eux est capable de traiter 4 pixels par horloge, si chacun d'eux reçoit quatre paramètres (couleur RVB et Z). Si seule la composante Z est présente, alors chaque section peut traiter 32 pixels par horloge.

Les ROP prennent en charge tous les formats d'anticrénelage courants utilisés dans les précédents GPU GeForce de la série 8. Étant donné que la puce possède une interface GDDR 256 bits, Nvidia a décidé d'apporter quelques améliorations à l'efficacité de la compression ROP afin de réduire l'utilisation de la bande passante et de la mémoire graphique lorsque l'anticrénelage est activé aux résolutions 1600x1200 et 1920x1200.

En tant que dérivé de l'architecture G80 d'origine, les unités d'adressage de filtre et de texture et les sections ROP fonctionnent à une fréquence d'horloge différente de celle des processeurs de flux. Nvidia appelle cette vitesse de base. Dans le cas de la GeForce 8800 GT, les caractéristiques de la carte vidéo sont déterminées par la fréquence de 600 MHz. Théoriquement, cela se traduit par un taux de remplissage de 9600 gigapixels par seconde (Gp/s) et un taux de remplissage de texture bilinéaire de 33,6 Gp/s. Selon les utilisateurs, la vitesse d'horloge est très faible et l'augmentation du nombre de transistors ne garantit pas l'ajout ou la préservation de fonctionnalités. Lorsque la société est passée de la technologie 110 nm à la technologie 90 nm, elle a réduit le nombre de transistors de 10 % grâce à l'optimisation. Par conséquent, il ne serait pas surprenant qu'il y ait au moins 16 processeurs de flux supplémentaires sur la puce, désactivés dans ce produit.

Concevoir

La conception de référence de la carte demande que le cœur, le shader et la mémoire fonctionnent respectivement à 600 MHz, 1 500 MHz et 1 800 MHz. Le 8800 GT dispose d'un système de refroidissement à un seul emplacement et un boîtier en métal noir brillant cache presque complètement sa face avant. Le ventilateur de 50 mm correspond à la conception des refroidisseurs radiaux haut de gamme et remplit ses fonctions très silencieusement dans tous les modes de fonctionnement. Peu importe si l'ordinateur est inactif, chargé uniquement avec le bureau Windows ou si votre jeu préféré est en cours d'exécution - il sera pratiquement inaudible sur fond d'autres sources de bruit dans le boîtier du PC. Cependant, il convient de noter que la première fois que vous allumez un ordinateur avec une nouvelle carte vidéo, vous pouvez avoir peur. Le ventilateur commence à hurler lorsque le GPU est chargé à pleine capacité, mais le bruit s'atténue avant que le bureau n'apparaisse.

Le panneau avant en métal attire les empreintes digitales, mais cela n'a pas d'importance, car une fois installé, il sera impossible de les voir. Selon les commentaires des utilisateurs, le couvercle permet d'éviter les dommages accidentels aux composants tels que les condensateurs à l'avant de la carte. La carte de circuit imprimé verte, combinée à la plaque frontale noire du dissipateur thermique, fait ressortir le 8800 GT. Le modèle est marqué du logo GeForce le long du bord supérieur de la lunette. Mark Rein, vice-président de la société, a déclaré aux journalistes que cela impliquait des coûts supplémentaires, mais était nécessaire pour aider les utilisateurs à déterminer quelle carte graphique est le cœur du système lors des soirées LAN.

Sous le dissipateur thermique se trouvent huit puces de mémoire graphique de 512 mégabits, pour un total de 512 Mo de stockage de données. Il s'agit de DRAM GDDR3 avec une fréquence effective allant jusqu'à 2000 MHz. Le GPU prend en charge à la fois GDDR3 et GDDR4, mais cette fonctionnalité n'a jamais été utilisée dans cette série.

Chauffage et consommation électrique

La carte vidéo nVidia GeForce 8800 GT est très sexy. Son design est tout simplement très agréable à l'œil et, compte tenu des changements internes du G92, il a une sensation de conception chevronnée.

Plus important que les aspects esthétiques, cependant, selon les utilisateurs, est le fait que le fabricant a réussi à intégrer toute la puissance dans un appareil à un seul emplacement. Ce n'est pas seulement un changement bienvenu, c'est une agréable surprise. Les caractéristiques de la GeForce 8800 GT sont telles qu'on peut supposer la présence d'un refroidisseur à deux slots. La raison pour laquelle Nvidia a opté pour une conception aussi mince était à cause d'un changement dans le processus de fabrication qui maintenait la chaleur à des niveaux qu'un ventilateur à profil bas pouvait supporter. En fait, les températures ont tellement baissé que même un refroidisseur relativement petit n'a pas à tourner très vite, ce qui rend la carte pratiquement silencieuse même pendant les jeux intensifs. Cependant, la température de la carte augmente considérablement, une quantité d'air importante est donc nécessaire pour éviter la surchauffe. En raison de la technologie de processus réduite, la GeForce 8800 GT 512 Mo ne consomme que 105 watts même à pleine charge. Ainsi, un seul connecteur d'alimentation à six broches est requis. C'est un autre changement agréable.

La carte a été la première à prendre en charge PCIe 2.0, vous permettant de recevoir une alimentation jusqu'à 150 watts. Cependant, la société a estimé que pour la rétrocompatibilité, il est beaucoup plus facile de limiter la puissance à 75 watts. Cela signifie que, que la carte soit connectée à des cartes mères avec PCIe 1.1 ou PCIe 2.0, seuls 75 watts sont fournis via le connecteur et le reste de l'énergie est fourni via un connecteur supplémentaire.

Processeur VP2

En parlant de capacité de signalisation HDCP, il convient de mentionner le processeur vidéo de nouvelle génération que nVidia a intégré au G92. Le VP2 est un processeur SIMD programmable unique avec la flexibilité d'évoluer à l'avenir. Il fournit un traitement très intensif de la vidéo encodée en H.264, déplaçant la charge du CPU vers le GPU. En plus de VP2, il existe également un processeur de flux H.264 et un décodeur AES128. Le premier est spécifiquement conçu pour accélérer les schémas de codage CAVLC et CABAC, des tâches très gourmandes en CPU dans un environnement purement logiciel. AES128 permet un traitement plus rapide du protocole de cryptage requis par les schémas de sécurité du contenu vidéo tels que AACS et Media Foundation. Ces deux schémas nécessitent que les données vidéo (compressées et non compressées) soient encodées lorsqu'elles sont transférées sur des bus tels que PCI-Express.

Amélioration de la qualité d'image

Nvidia travaille dur pour améliorer la technique d'anti-aliasing transparent qui est apparue pour la première fois dans la série GeForce 7. Le multi-échantillonnage réduit peu les performances de la carte, mais dans la plupart des cas, il n'est pas efficace. D'un autre côté, le supersepling offre une qualité d'image bien meilleure et plus cohérente, mais au détriment de la vitesse, il s'agit d'une technique d'anticrénelage incroyablement gourmande en ressources.

Les pilotes fournis avec la carte vidéo contiennent un nouvel algorithme de multi-échantillonnage. Les différences sont assez importantes, mais la décision finale appartient à l'utilisateur. La bonne nouvelle est que, puisqu'il s'agit d'un changement au niveau du pilote, tout matériel prenant en charge l'anti-aliasing transparent peut utiliser le nouvel algorithme, y compris les cartes publiées après la GeForce 7800 GTX. Pour activer le nouveau mode, il vous suffit de télécharger les dernières mises à jour sur le site Web du fabricant.

Selon les avis des utilisateurs, la mise à jour du pilote de la GeForce 8800 GT ne sera pas difficile. Bien que la page Web de la carte graphique ne contienne que des liens vers des fichiers pour Windows Vista et XP, une recherche à partir de la page principale trouvera ce dont vous avez besoin. Pour nVidia GeForce 8800 GT, les pilotes Windows 7-10 sont installés par GeForce 342.01 Driver 292 Mo.

Connectivité

Les connecteurs de sortie du nVidia GeForce 8800 GT sont assez standard - 2 ports DVI-I à double liaison avec prise en charge HDCP, qui conviennent aux interfaces analogiques et numériques des moniteurs et des téléviseurs, et un port vidéo analogique à 7 broches fournit l'habituel sortie composite et composante. Les connecteurs DVI peuvent être utilisés en combinaison avec un adaptateur DVI-VGA et DVI-HDMI, de sorte que toutes les options de connexion sont possibles. Cependant, NVIDIA rend toujours la prise en charge audio pour une utilisation avec des connecteurs HDMI facultative pour les tiers - il n'y a pas de processeur audio à l'intérieur du VP2, donc l'audio est géré via le connecteur S/PDIF de la carte. C'est décevant car la carte fine et silencieuse est parfaite pour les home cinémas de jeux.

La GeForce 8800 GT est le premier système graphique à être compatible PCI Express 2.0, ce qui signifie qu'elle peut accéder à la mémoire à 16 Go/s. - deux fois plus rapide que la norme précédente. Bien que cela puisse être utile pour les stations de travail et l'informatique intensive, cela ne sera pas utile pour le joueur occasionnel. Dans tous les cas, la norme est entièrement compatible avec toutes les versions précédentes de PCIe, il n'y a donc rien à craindre.

Les sociétés partenaires de nVidia proposent des versions overclockées de la GeForce 8800 GT ainsi que des packs de jeux.

BioShock par 2K Games

BioShock était l'un des meilleurs jeux qui existaient au moment de la sortie de la carte graphique. Il s'agit d'un jeu de tir à la première personne "génétiquement modifié" qui se déroule dans la ville sous-marine de Rapture, créé au fond de l'océan Atlantique par un homme du nom d'Andrew Ryan dans le cadre de son rêve art déco des années 1930 devenu réalité. 2K Boston et 2K Australia ont obtenu une licence et utilisé l'Unreal Engine 3 d'Epic Games pour obtenir le meilleur effet, et ont également appliqué certaines fonctionnalités de DirectX 10. Tout cela est contrôlé via une option dans le panneau de configuration graphique du jeu.

Le réglage de BioShock a obligé les développeurs à utiliser beaucoup de shaders d'eau. La technologie DirectX 10 a contribué à améliorer les ondulations lorsque les personnages se déplacent dans l'eau, et les pixel shaders ont été massivement utilisés pour créer des objets et des surfaces humides. De plus, la version DX10 du jeu utilise un tampon de profondeur pour créer des effets de particules "douces" où ils interagissent avec leur environnement et semblent plus réalistes.

La nVidia GeForce 8800 GT, dont les caractéristiques lui permettent de montrer sa force dans BioShock, n'est que légèrement inférieure à la GTX en 1680x1050. À mesure que ce paramètre augmente, l'écart entre les cartes augmente, mais pas par une grande marge. La raison en est probablement le fait que le jeu ne supportait pas l'anti-aliasing transparent, et l'énorme avantage de la bande passante mémoire de la 8800 GTX devient discutable.

Selon les avis des utilisateurs, la 8800 GT fonctionne également assez bien avec le SLI activé. Bien que ses capacités ne correspondent pas étroitement à la GTX, la Radeon HD 2900 XT avec 512 Mo de mémoire dans la configuration CrossFire la concurrence. Peut-être encore plus intéressant est le fait qu'à 1920x1200 la 8800 GT est presque aussi rapide que la 640MB GTS !

Démo Crysis Syngle Player par Electronic Arts

Ce jeu va littéralement faire pleurer votre carte graphique ! La grande surprise a été ses graphismes - elle a dépassé tout ce qui était dans les jeux informatiques avant elle. Les tests avec le compteur de vitesse GPU intégré sont beaucoup plus rapides qu'en réalité. Environ 25 ips dans le test de performance suffisent pour obtenir une fréquence d'images conviviale. Contrairement à d'autres jeux, le faible taux de rafraîchissement semble toujours assez fluide ici.

La nVidia GeForce 8800 GT, dont les performances dans Crysis permettent d'atteindre des fréquences d'images suffisantes à une résolution de 1680x1050 avec des détails élevés sous DirectX 10, n'est pas aussi rapide que la GTX, mais est sensiblement plus rapide que les Radeon HD 2900 XT et 8800 GTS 640 Mo. Le GTS 320 Mo a du mal à gérer Crysis et devra réduire la plupart des paramètres à moyen pour dépasser 25 ips, même avec une qualité d'image de 1280 x 1024.

Performance

Comme prévu, la 8800 GTX reste imbattable, mais globalement la GeForce 8800 GT GTS surclasse dans la plupart des tests. Aux résolutions et paramètres d'anticrénelage les plus élevés, la bande passante mémoire réduite du GT échoue et le GTS avance parfois. Cependant, compte tenu de la différence de prix et d'autres avantages, la 8800 GT est de toute façon meilleure. A l'inverse, le comparatif GeForce GTX 8800/GT 8800 confirme à chaque fois pourquoi la première carte coûte si cher. Alors que d'autres modèles commencent à ralentir considérablement avec l'augmentation du nombre de pixels d'image, en utilisant l'anticrénelage transparent et le filtrage anisotrope, la 8800 GTX continue d'afficher d'excellents résultats. En particulier, Team Fortress 2 à 1920x1200 avec 8xAA et 16xAF tourne deux fois plus vite sur la 8800 GTX que sur la GT. Cependant, pour la plupart, la GeForce 8800 GT fonctionne bien. Bien sûr, si vous ne tenez pas compte de la fréquence d'images incroyablement faible de Crysis.

Conclusion

Bien que les performances de la GeForce 8800 GT ne dépassent pas les spécifications du leader de la série 8800 GTX, elle offre des performances similaires à une fraction du prix, et comprend également de nombreuses fonctionnalités supplémentaires. Et si vous ajoutez ici la petite taille et le fonctionnement silencieux, le modèle semblera tout simplement phénoménal.

Les fabricants pratiquent depuis longtemps la sortie de solutions moins chères basées sur des processeurs graphiques dans le segment de prix supérieur. Grâce à cette approche, la variation des solutions prêtes à l'emploi est considérablement augmentée, leur coût est réduit et la plupart des utilisateurs préfèrent souvent les produits avec le rapport prix / performances le plus favorable.
NVIDIA a fait de même avec la dernière puce G80, le premier GPU à architecture unifiée au monde prenant en charge la nouvelle API DirectX 10 de Microsoft.
Simultanément avec la carte vidéo phare GeForce 8800 GTX, une version moins chère appelée GeForce 8800 GTS est sortie. Elle se distingue de son aînée par un nombre réduit de processeurs pixel (96 contre 128), de mémoire vidéo (640 Mo au lieu de 768 Mo pour la GTX). La réduction du nombre de puces mémoire a entraîné une diminution de la profondeur de bits de son interface à 320 bits (GTX a 384 bits). Des caractéristiques plus détaillées de l'adaptateur graphique en question peuvent être trouvées en examinant le tableau :

Notre laboratoire de test a obtenu la carte vidéo ASUS EN8800GTS, que nous allons examiner aujourd'hui. Ce fabricant est l'un des partenaires les plus importants et les plus performants de NVIDIA, et ne lésine traditionnellement pas sur la conception et l'emballage des emballages. Comme le dit le dicton, "il devrait y avoir beaucoup d'une bonne carte vidéo". La nouveauté se présente dans un coffret aux dimensions impressionnantes :


Sur sa face avant, un personnage du jeu Ghost Recon : Advanced Warfighter s'exhibe. La question ne se limite pas à une image - le jeu lui-même, comme vous l'avez peut-être deviné, est inclus dans le kit. Au dos de l'emballage se trouvent de brèves caractéristiques du produit :


ASUS considérait cette quantité d'informations comme insuffisante, créant quelque chose comme un livre prêt à l'emploi :


En toute honnêteté, nous notons que cette méthode est pratiquée depuis assez longtemps et, en aucun cas, pas seulement par ASUS. Mais, comme on dit, tout est bon avec modération. Le contenu maximum d'informations s'est transformé en un inconvénient pratique. Un léger souffle de vent - et le haut de la couverture s'ouvre. Lors du transport du héros de la revue d'aujourd'hui, nous avons dû inventer et plier la languette de retenue pour qu'elle justifie son objectif. Malheureusement, le plier peut facilement endommager l'emballage. Et enfin, nous ajoutons que la taille de la boîte est déraisonnablement grande, ce qui cause quelques désagréments.

Adaptateur vidéo : emballage et inspection minutieuse

Eh bien, passons directement à la configuration et à la carte vidéo elle-même. L'adaptateur est emballé dans un sac antistatique et un conteneur en mousse, ce qui exclut les dommages électriques et mécaniques de la carte. La boîte contient des disques, des adaptateurs DVI -> D-Sub, VIVO et des cordons d'alimentation supplémentaires, ainsi qu'un boîtier pour les disques.


Parmi les disques inclus dans le kit, notons le jeu de course GTI et le benchmark 3DMark06 Advanced Edition ! 3DMark06 a été remarqué pour la première fois dans un ensemble de cartes vidéo en série et produites en série ! Sans aucun doute, ce fait plaira aux utilisateurs qui sont activement impliqués dans l'analyse comparative.


Eh bien, passons directement à la carte vidéo. Il est basé sur un circuit imprimé de conception de référence utilisant un système de refroidissement de référence, et ne se distingue des autres produits similaires que par un autocollant avec le logo du fabricant, qui conserve le thème Ghost Recon.


Le verso de la carte de circuit imprimé est également banal - de nombreux composants smd et régulateurs de tension y sont soudés, c'est tout:


Contrairement à la GeForce 8800 GTX, la GTS ne nécessite qu'un seul connecteur d'alimentation supplémentaire :


De plus, elle est plus petite que sa grande soeur, ce qui plaira sûrement aux possesseurs de petites carrosseries. Il n'y a pas de différences en termes de refroidissement, et ASUS EN8800GTS, comme le GF 8800 GTX, utilise un refroidisseur avec un grand ventilateur de type turbine. Le radiateur est composé d'une base en cuivre et d'un boîtier en aluminium. Le transfert de chaleur de la base vers les ailettes s'effectue en partie par des caloducs, ce qui augmente l'efficacité globale de la structure. L'air chaud est expulsé de l'unité centrale, mais, hélas, une partie reste à l'intérieur du PC grâce à des trous dans le boîtier du système de refroidissement.


Cependant, le problème du fort échauffement est facilement résolu. Par exemple, souffler un ventilateur de 120 mm à basse vitesse améliore assez bien la température de la carte.
En plus du processeur graphique, le refroidisseur refroidit les puces de mémoire et les éléments du sous-système d'alimentation, ainsi que le signal vidéo DAC (puce NVIO).


Ce dernier a été déplacé à l'extérieur du processeur principal en raison des hautes fréquences de ce dernier, ce qui a provoqué des interférences et, par conséquent, des interférences dans le fonctionnement.
Malheureusement, cette circonstance entraînera des difficultés lors du changement du refroidisseur, de sorte que les ingénieurs de NVIDIA n'avaient tout simplement pas le droit de le rendre de mauvaise qualité. Regardons la carte vidéo sous sa forme "nue".


La puce G80 de révision A2, 640 Mo de mémoire vidéo, typée par dix puces fabriquées par Samsung, sont soudées sur le PCB. Le temps d'accès mémoire est de 1,2 ns, ce qui est légèrement plus rapide que la GeForce 8800 GTX.


Veuillez noter que le conseil a deux sièges pour les jetons. S'ils étaient soudés sur un PCB, la quantité totale de mémoire serait de 768 Mo et sa capacité serait de 384 bits. Hélas, le développeur de la carte vidéo a jugé une telle étape inutile. Ce schéma est utilisé uniquement dans les cartes vidéo professionnelles de la série Quadro.
Notons enfin que la carte ne possède qu'un seul connecteur SLI contrairement à la GF 8800 GTX qui en possède deux.

Tests, analyse des résultats

La carte vidéo ASUS EN8800GTS a été testée sur un banc d'essai avec la configuration suivante : Les tests ont été effectués dans le système d'exploitation Windows XP SP2, la version 6.86 du pilote de chipset est installée.
L'utilitaire RivaTuner a confirmé que les caractéristiques de la carte vidéo correspondent à celles déclarées :


Les fréquences du processeur vidéo sont de 510/1190 MHz, la mémoire - 1600 MHz. Le chauffage maximal obtenu après plusieurs exécutions du test Canyon Flight du package 3DMark06 était de 76 ° C à une vitesse de ventilation du système de refroidissement standard égale à 1360 tr / min:


A titre de comparaison, je dirai que dans les mêmes conditions, la GeForce 6800 Ultra AGP tombée sous la main a chauffé jusqu'à 85 °C à la vitesse maximale du ventilateur, et après un long travail elle a complètement raccroché.

Les performances du nouvel adaptateur vidéo ont été testées à l'aide de benchmarks synthétiques populaires et de certaines applications de jeu.

Les tests avec des applications développées par Futuremark ont ​​révélé ce qui suit :


Bien sûr, sur un système avec un processeur plus puissant, par exemple un représentant de l'architecture Intel Core 2 Duo, le résultat serait meilleur. Dans notre cas, l'Athlon 64 obsolète (même s'il est overclocké) ne nous permet pas de libérer pleinement le potentiel des meilleures cartes vidéo d'aujourd'hui.

Passons aux tests dans de vraies applications de jeu.


Dans Need for Speed ​​​​Carbon, la différence entre les rivaux est clairement visible et la GeForce 7900 GTX est plus que sensiblement en retard sur les cartes de la génération 8800.


Puisqu'un jeu confortable dans Half Life 2 nécessite non seulement une carte vidéo puissante, mais également un processeur rapide, une nette différence de performances n'est observée qu'aux résolutions maximales avec filtrage anisotrope activé et anti-aliasing plein écran.


Dans la peur. on observe approximativement la même image que dans HL2.


Dans les modes de jeu lourds de Doom 3, la carte en question s'est avérée très bonne, mais le même processeur central faible ne permet pas d'apprécier pleinement le carnet de commandes de la GeForce 8800 GTS de sa grande sœur.


Étant donné que Pray est basé sur le moteur Quake 4, qui est à son tour un développement de Doom3, les performances des cartes vidéo dans ces jeux sont similaires.
La progressivité de la nouvelle architecture de shader unifiée et une certaine "réduction" des capacités par rapport à l'aînée placent la GeForce 8800 GTS entre l'adaptateur graphique le plus rapide de NVIDIA aujourd'hui et le fleuron de la sept millième ligne. Cependant, il est peu probable que les Californiens aient agi différemment - une nouveauté de cette classe devrait être plus puissante que ses prédécesseurs. Je suis content que la GeForce 8800 GTS soit beaucoup plus proche de la GeForce 8800 GTX en termes de vitesse que de la 7900 GTX. La prise en charge des dernières technologies graphiques incite également à l'optimisme, ce qui devrait laisser aux possesseurs de tels adaptateurs une bonne marge de performance dans un avenir proche (et, espérons-le, plus lointain).

Verdict

Après avoir examiné la carte, nous avons eu une impression exceptionnellement bonne, qui a été grandement améliorée par le facteur coût du produit. Ainsi, au moment de son apparition sur le marché et quelque temps plus tard, ASUS EN8800GTS, selon price.ru, coûtait environ 16 000 roubles - son prix était clairement trop élevé. Maintenant, la carte est vendue pendant une longue période pour environ 11 500 roubles, ce qui ne dépasse pas le coût de produits similaires de concurrents. Cependant, compte tenu du bundle, l'idée originale d'ASUS est bien sûr dans une position gagnante.

avantages:

  • prise en charge de DirectX 10 ;
  • structure de puce renforcée (architecture unifiée);
  • excellent niveau de performance;
  • équipement riche;
  • marque célèbre;
  • le prix est au niveau des produits de concurrents moins réputés
Les moins:
  • pas toujours une grande boîte pratique
Nous remercions le bureau de représentation russe d'ASUS d'avoir fourni la carte vidéo pour les tests.

Les commentaires, suggestions et commentaires sur ce matériel sont acceptés dans le forum site Internet.

Encore une fois 128 tireurs californiens plus puissants, mais avec des lances coupées (512 Mo et 256 bits)

Partie 1 : Théorie et architecture

Dans l'article précédent consacré à la sortie de la nouvelle solution de milieu de gamme Nvidia Geforce 8800 GT basée sur la puce G92, nous avons mentionné que cette solution utilise une puce dans laquelle toutes les unités d'exécution ALU et TMU ne sont pas déverrouillées, certaines d'entre elles attendent dans les coulisses, à inclure dans une carte graphique d'un niveau de prix différent. Et maintenant que ce moment est venu, Nvidia a annoncé une version mise à jour de la Geforce 8800 GTS, qui porte le même nom que la solution plus jeune basée sur le G80. Le moyen le plus simple de le distinguer est la quantité de mémoire vidéo installée, elle est égale à 512 mégaoctets, contrairement aux options précédentes de 320 Mo et 640 Mo. Ce modèle a donc été nommé Geforce 8800 GTS 512 Mo.

La nouvelle version de la GeForce 8800 GTS est basée sur la puce G92, déjà utilisée dans la GeForce 8800 GT, une carte vidéo du soi-disant niveau de prix moyen supérieur, nous connaissons donc déjà les principales caractéristiques et caractéristiques. Contrairement aux deux modèles Geforce 8800 GT avec un prix recommandé de 200 $ à 250 $ (qui ne se compare pas bien avec les prix réels, soit dit en passant), la nouvelle solution a un prix recommandé par le fabricant de 349 à 399 $. Les particularités de la puce vidéo utilisée sont la prise en charge d'un bus mémoire 256 bits uniquement, mais d'un plus grand nombre d'unités d'exécution universelles déverrouillées. Regardons de plus près la nouvelle solution bas de gamme haut de gamme de Nvidia...

Avant de lire ce document, nous vous recommandons de lire attentivement les documents théoriques de base de DX Current, DX Next et Longhorn, qui décrivent divers aspects des accélérateurs graphiques matériels modernes et les caractéristiques architecturales des produits Nvidia et AMD.

Ces matériaux prédisaient assez précisément la situation actuelle des architectures de puces vidéo, et de nombreuses hypothèses sur les solutions futures étaient justifiées. Des informations détaillées sur l'architecture unifiée de Nvidia G8x/G9x sur l'exemple des puces précédentes peuvent être trouvées dans les articles suivants :

Comme nous l'avons mentionné dans l'article précédent, la puce G92 comprend tous les avantages du G8x : une architecture de shader unifiée, une prise en charge complète de DirectX 10, des méthodes de filtrage anisotrope de haute qualité et un algorithme d'anti-aliasing CSAA avec jusqu'à seize échantillons inclus. Certains blocs de puces sont légèrement différents de ceux du G80, mais le principal changement par rapport au G80 est la technologie de fabrication à 65 nm, qui a réduit le coût de production. Tenez compte des caractéristiques du GPU et des nouvelles solutions vidéo basées sur celui-ci :

Accélérateur graphique Geforce 8800 GTS 512 Mo

  • Nom de code de la puce G92
  • Technologie 65 nm
  • 754 millions de transistors (plus que G80)
  • Architecture unifiée avec un ensemble de processeurs communs pour le streaming de vertex et de pixels, et d'autres types de données
  • Prise en charge matérielle de DirectX 10, y compris le modèle de shader Shader Model 4.0, la génération de géométrie et l'enregistrement des données intermédiaires des shaders (sortie de flux)
  • Bus mémoire 256 bits, quatre contrôleurs indépendants de 64 bits
  • Fréquence de base 650 MHz (Geforce 8800 GTS 512 Mo)
  • Les ALU fonctionnent à plus du double de la fréquence (1,625 GHz pour Geforce 8800 GTS 512 Mo)
  • 128 ALU scalaires à virgule flottante (formats entiers et flottants, prise en charge FP de la précision IEEE 754 32 bits, MAD + MUL sans perte d'horloge)
  • 64 unités d'adresse de texture avec prise en charge des composants FP16 et FP32 dans les textures
  • 64 blocs de filtrage bilinéaire (comme dans G84 et G86, pas de filtrage trilinéaire libre et filtrage anisotrope plus efficace)
  • Possibilité de ramification dynamique dans les pixel shaders et vertex shaders
  • 4 larges ROP (16 pixels) avec prise en charge des modes anti-aliasing jusqu'à 16 échantillons par pixel, y compris avec le format de framebuffer FP16 ou FP32. Chaque bloc se compose d'un tableau d'ALU configurables de manière flexible et est responsable de la génération et de la comparaison de Z, MSAA, mélange. Performances de pointe de l'ensemble du sous-système jusqu'à 64 échantillons MSAA (+ 64 Z) par horloge, en mode incolore (Z uniquement) 128 échantillons par horloge
  • Écrire les résultats dans 8 tampons de trame simultanément (MRT)
  • Toutes les interfaces (deux RAMDAC, deux Dual DVI, HDMI, HDTV) sont intégrées sur la puce (contrairement à celles placées sur une puce NVIO supplémentaire dans les Geforce 8800)

Spécifications de la carte de référence Geforce 8800 GTS 512 Mo

  • Horloge centrale 650 MHz
  • Fréquence des processeurs universels 1625 MHz
  • Nombre de processeurs universels 128
  • Nombre d'unités de texture 64, unités de mélange 16
  • Fréquence mémoire effective 1,94 GHz (2*970 MHz)
  • Type de mémoire GDDR3
  • Capacité mémoire 512 mégaoctets
  • Bande passante mémoire 64,0 gigaoctets par seconde.
  • Le taux de remplissage maximum théorique est de 10,4 gigapixels par seconde.
  • Taux d'échantillonnage de texture théorique jusqu'à 41,6 gigatexels par seconde.
  • Deux connecteurs DVI-I Dual Link, prend en charge la sortie à des résolutions allant jusqu'à 2560x1600
  • Connecteur SLI
  • Bus PCI Express 2.0
  • Sortie TV, sortie HDTV, prise en charge HDCP
  • Prix ​​recommandé $349-399

Comme vous pouvez le voir dans les spécifications, la nouvelle version de Geforce 8800 GTS 512 Mo est assez différente des anciennes. Le nombre d'unités d'exécution a augmenté : ALU et TMU, la fréquence GPU a également augmenté de manière significative, y compris la fréquence des unités de shader. Malgré le bus mémoire tronqué (256 bits contre 320 bits pour les anciennes versions), la bande passante mémoire est restée la même, puisque sa fréquence de fonctionnement a été élevée à la valeur appropriée. En conséquence, le nouveau GTS a considérablement amélioré la puissance d'exécution des shaders ainsi qu'une vitesse de récupération des textures accrue. Dans le même temps, le taux de remplissage et la bande passante mémoire sont restés les mêmes.

Du fait de la largeur modifiée du bus mémoire, le volume de ce dernier ne peut désormais être égal à 320 Mo ou 640 Mo, mais seulement à 256 Mo, 512 Mo ou 1 Go. La première valeur est trop petite, ce ne sera clairement pas suffisant pour une carte de cette classe, et la dernière est trop élevée, une légère augmentation des performances est peu susceptible de justifier l'augmentation du prix de telles options (qui pourraient bien apparaître à l'avenir ). Par conséquent, Nvidia a choisi l'option intermédiaire avec un ensemble de cartes d'une capacité de 512 Mo. Ce qui, comme l'a montré notre étude récente, est le juste milieu pour tous les jeux modernes qui sont très exigeants en quantité de mémoire vidéo et utilisent jusqu'à 500-600 mégaoctets. Nous ne nous lassons pas de répéter que cela ne signifie pas que toutes les ressources du jeu doivent être situées uniquement dans la mémoire locale de la carte vidéo, la gestion des ressources peut être confiée au contrôle API, en particulier dans Direct3D 10 avec la virtualisation de la mémoire vidéo.

Architecture

Comme il a été écrit dans l'article précédent sur la GeForce 8800 GT, on peut dire que le G92 est l'ancien produit phare du G80, transféré au nouveau processus technique, mais avec quelques modifications. La nouvelle puce a 8 grandes unités de shader et 64 unités de texture, ainsi que quatre larges ROP. Malgré tous les changements pour le mieux, le nombre de transistors dans la puce semble trop important, probablement, la complexité accrue de la puce est due à l'inclusion d'une puce NVIO précédemment séparée, ainsi que d'un processeur vidéo de nouvelle génération. De plus, le nombre de transistors a été affecté par des TMU plus complexes, et il est possible d'augmenter les caches pour fournir un bus mémoire 256 bits plus efficace.

Il y a très peu de changements architecturaux dans la puce G92, nous en avons parlé dans l'article précédent, et nous ne le ferons plus. Tout ce qui a été dit dans les revues des solutions précédentes reste valable, nous ne donnerons que le schéma principal de la puce G92, désormais avec l'ensemble des 128 processeurs universels :

De tous les changements dans la puce, par rapport au G80, seuls un nombre réduit de ROP et quelques changements dans le TMU, qui sont décrits dans notre article précédent. Insistons une fois de plus sur le fait que 64 unités de texture dans GeForce 8800 GTS 512 Mo dans des applications réelles dans la plupart des cas ne seront PAS plus fortes que 32 unités dans GeForce 8800 GTX. Avec le filtrage trilinéaire et/ou anisotrope activé, leurs performances seront approximativement les mêmes, puisqu'ils ont le même nombre d'unités de filtrage de données de texture. Bien sûr, lorsque des échantillons non filtrés sont utilisés, les performances des solutions G92 seront plus élevées.

Pure vidéo HD

L'un des changements attendus dans le G92 était le processeur vidéo intégré de deuxième génération, connu des G84 et G86, qui a reçu une prise en charge améliorée de PureVideo HD. Cette version du processeur vidéo décharge presque complètement le processeur lors du décodage de tous les types de données vidéo, y compris les formats "lourds" H.264 et VC-1. Le G92 utilise un nouveau modèle de processeur vidéo programmable PureVideo HD, y compris le moteur dit BSP. Le nouveau processeur prend en charge le décodage des formats H.264, VC-1 et MPEG-2 avec des résolutions jusqu'à 1920x1080 et des débits jusqu'à 30-40 Mbps, effectuant le travail de décodage des données CABAC et CAVLC dans le matériel, ce qui vous permet de jouer tous les lecteurs HD-DVD et Blu-ray existants, même sur des PC monocœurs moyens. Le décodage VC-1 n'est pas aussi efficace que H.264, mais il est toujours pris en charge par le nouveau processeur. Vous pouvez en savoir plus sur le processeur vidéo de deuxième génération dans nos revues G84/G86 et G92, dont les liens sont donnés au début de l'article.

PCI Express 2.0

L'une des véritables innovations du G92 est la prise en charge du bus PCI Express 2.0. La deuxième version de PCI Express double la bande passante standard de 2,5 Gb/s à 5 Gb/s, ce qui se traduit par des emplacements x16 capables de transférer des données jusqu'à 8 Gb/s dans chaque direction, contre 4 Gb/s pour la version 1 .X. Dans le même temps, il est très important que PCI Express 2.0 soit compatible avec PCI Express 1.1, et les anciennes cartes vidéo fonctionneront sur les nouvelles cartes mères, et les nouvelles cartes vidéo prenant en charge la deuxième version resteront opérationnelles sur les cartes sans support. A condition que l'alimentation externe soit suffisante et sans augmenter la bande passante de l'interface, bien sûr.

L'impact réel de la bande passante plus élevée du bus PCI Express sur les performances de leurs matériels a été évalué par le principal concurrent de Nvidia. Selon eux, une carte graphique de milieu de gamme avec 256 Mo de mémoire locale accélère lors du passage de PCI Express 1.0 à 2.0 dans des jeux modernes tels que Company of Heroes, Call of Juarez, Lost Planet et World In Conflict d'environ 10%, le les indicateurs varient de 5 % à 25 % pour différents jeux et conditions de test. Naturellement, la parole à des résolutions élevées, lorsque le tampon de trame et les tampons associés occupent la majeure partie de la mémoire vidéo locale et que certaines ressources sont stockées dans le système.

Pour assurer la rétrocompatibilité avec les solutions PCI Express 1.0 et 1.1 existantes, la spécification 2.0 prend en charge les taux de transfert de 2,5 Gb/s et 5 Gb/s. La rétrocompatibilité PCI Express 2.0 permet aux anciennes solutions 2,5 Gb/s dans les emplacements 5,0 Gb/s de fonctionner à des vitesses plus lentes, tandis qu'un périphérique conçu selon les spécifications 2.0 peut prendre en charge les vitesses 2,5 Gb/s et 5 Gb/s . En théorie, la compatibilité est bonne, mais en pratique, certaines combinaisons de cartes mères et de cartes d'extension peuvent poser des problèmes.

Prise en charge des interfaces externes

Tout ici est le même que pour la GeForce 8800 GT, il n'y a pas de différences. La puce NVIO supplémentaire disponible sur les cartes GeForce 8800, qui prend en charge les interfaces externes placées à l'extérieur de la principale (deux RAMDAC 400 MHz, deux Dual Link DVI (ou LVDS), HDTV-Out), dans ce cas était incluse dans la puce elle-même, prise en charge de toutes ces interfaces intégrées au G92 lui-même.

Les cartes vidéo Geforce 8800 GTS 512 Mo ont généralement deux sorties DVI Dual Link avec prise en charge HDCP. Quant à HDMI, la prise en charge de ce connecteur a été implémentée, il peut être implémenté par les fabricants sur des cartes de conception spéciale. Bien que la présence d'un connecteur HDMI sur une carte vidéo soit totalement facultative, elle sera remplacée avec succès par un adaptateur DVI vers HDMI, qui est inclus avec la plupart des cartes vidéo modernes.

Vous avez aimé l'article ? A partager entre amis :