Test GeForce 7600 GT, 7900 GT und 7900 GTX im Test: nVidia beißt sich an ATi die Zähne aus

gran85 schrieb:
Also,

1. wie schon gesagt bin ich kein Fanboy ich halt mich an fakten die auf über 70% der Seiten zeigen das Pure Video langsamer ist als AVIO

2. wenn NV wirklich eine Hardware H264 Decoder hätte warum wurde dieses nicht bei der einführung der Karte benahnt so hätte man ATI den Wind aus den Segeln nehmen können (das NV keine Hardware unterstützung hat sieht man schon das die GF 6 Serie auch plötzlich H264 Unterstützt nach 2 Jahren haben dies wohl plötzlich endeckt oder was?)

3. AVIO Unterstützt mehr Bild Formate und liefert besser BQ

zu 1.: 70% also? So viele Vergleiche der H.264-Beschleunigung kenne ich noch gar nicht. Ich habe bis jetzt 2 gelesen, und beide sagen, NVIDIA ist die bessere Lösung.

zu 2.: So langsam frage ich mich, ob ich überhaupt noch auf dein Gebrabbel eingehen soll (don't feed the troll). Nur soviel, mit der Geforce 6800 in 2004 wurde die Hardware für H.264-Beschleunigung eingeführt, bei einigen 6800 noch mit einem Bug, ab der 6600 war es dann auf allen Karten voll funktionsfähig. Ich verweise auf die Tabelle auf http://www.nvidia.com/page/purevideo_support.html

Die Unterstützung für H.264-Beschleunigung war Hardwareseitig seit 2004 vorhanden. Softwareseitig wurde Support für H.264 in einem der letzten Treiber nachgereicht (für andere Formate war es längst aktiviert).

Dagegen hat ATI erst mit der X1xxx-Reihe die AVIVO-Sache eingeführt, das war Ende 2005: https://www.computerbase.de/news/grafikkarten/ati-kuendigt-r520-feature-avivo-an.14258/

Besitzer aller vorigen Karten gucken in die Röhre. Soviel zur Weitsicht von ATI. Zu sagen, NVIDIA würde es nicht beschleunigen, wenn man sich dazu die Benchmarks vor Augen hält, da kannst du gleich sagen, die Erde ist eine Scheibe.

zu 3.: Habe ich nicht genug Info zu. Im Gegensatz zu dir werde ich mir aber nicht einfach irgendwas aus den Fingern saugen.
 
gran85 schrieb:

LOL. "Avivo: Mit dieser Technologie will ATI das Home-Cinema-Erlebnis in punkto Bildqualität und Performance deutlich verbessern. Die Übersicht zeigt, welche Avivo-Features und -Funktionen ATI mit der neuen Grafikchipgeneration unterstützt. (Quelle: ATI)"

Solche Charts hat NVIDIA auch rausgebracht, natürlich wurden dann Features aufgelistet, die ATI nicht hat. Die ersten 7 Punkte da sind alle belanglos für Grafikkarten (es wird von Tunern geredet, also die All-in-Wonder Karten), zudem sind einige (wenn nicht alle) Punkte nun auch auf NVIDIA möglich, siehe nur mal http://www.techpowerup.com/reviews/NVIDIA/PureVideo/images/PureVideo-33.jpg (auch so ein Propaganda-Chart). H.264 decode ist mit den letzten Treibern bei NVIDIA auch dazugekommen, genau wie WMV9 HD Beschleunigung. Dual-Link bei beiden DVI-Ports hat NVIDIA bei den 7900ern nun auch, soweit ich weiß. Die anderen Features, gut, das muss man im "Sehtest" überprüfen, bessere theoretische Zahlen sagen nicht immer etwas über die Praxis aus.

Generell glaube ich, dass dein Eindruck vor allem von den angeblich drastischen Geschwindigkeitsunterschieden aus älteren Vergleichen stammt, als NVIDIA noch nicht die Beschleunigung per Treiber freigeschaltet hatte. Anders kann ich mir das nicht erklären.
 
Was wohl 2 passive 76GS im SLI bringen.. :lol:
 
Wie auch immer! Ich bleibe der Meinung, dass ATI in Punkto BQ, sowie Leistung die NASE weiter vorn hat!

Die DX 9 Zeit neigt sich eh dem ende! So gehen beide Firmen getrennte wegen weil NV bereits gesagt hat kein Unifiend Shader zu verwenden wärend ATI diese zusammenlegung der Pixel und Vertx Shader bereits durchzieht aber im Oktober werden wir alle schlauer sein! Dann interissiert niemanden mehr die X1900 noch eine GF 7900!

Dann werden NV anhänger wieder ihren Chip pushen, genauso wie ATI user das gleiche tun!

zusatz: eine wirkliche antwort auser beschimpfung habe ich immer noch nicht auf die Frage der Effiziens des NV vs ATI Chip bekommen! (ATI Rechnet besser sorry ist so und wieder verweise ich auf die Technischen Daten)
 
gran85 schrieb:
zusatz: eine wirkliche antwort auser beschimpfung habe ich immer noch nicht auf die Frage der Effiziens des NV vs ATI Chip bekommen! (ATI Rechnet besser sorry ist so und wieder verweise ich auf die Technischen Daten)

siehe post #162 bzgl. der Transistorenzahl. Dort habe ich dargelegt, dass der G71 mit ca.287Mio. Transistoren in etwa die gleiche Leistung bringt wie der R580 mit über 100 Mio. mehr!
 
mmic29 schrieb:
siehe post #162 bzgl. der Transistorenzahl. Dort habe ich dargelegt, dass der G71 mit ca.287Mio. Transistoren in etwa die gleiche Leistung bringt wie der R580 mit über 100 Mio. mehr!

Dafür kriegts du wenn du die Ati kaufst HDR-AA,HQ-AF,bessere AA-AF performance und bessere Blidquali irgend wo müssen ja die sachen hin die die Nvidia nicht kann...
 
Pepsito schrieb:
Dafür kriegts du wenn du die Ati kaufst HDR-AA,HQ-AF,bessere AA-AF performance und bessere Blidquali irgend wo müssen ja die sachen hin die die Nvidia nicht kann...


HDR+AA wäre natürlich wünschenswert, gerade bei den hohen Kontrasten, wenn HDR aktiviert ist.
Aber so überspitzt, wie manche die Bildquali-Unterschiede darstellen, sind sie einfach nicht. V.a. wenn "high quality" im forceware-treiber aktiv und die "Bildoptimierungen" abgestellt sind. Das sind Marketing-Märchen! Und ich kanns irgendwann echt nicht mehr hören. :freak:

In absolut jedem ATI-bzw. nvidia-Thread wird früher oder später die Bildquali als Streitthema angeführt. Dann kontert einer mit den achso schlechten Lüftern und der Wärmeentwicklung beim R580 etc. Bla, bla. Leute lasst euch mal was Neues einfallen.

Einzige Folge ist, dass das Niveau der comments ab dann ins Unterirdische absinkt ;) .

Mfg
 
Einer der über den Lüfter einer X1900 sich beschwerd hat sie noch nie gehört! So laut is die nicht (nur beim booten denkst ein Flugzeug startet) die Wärmeentwicklung ist auch halb so schlimm (meine wird nicht Wärmer als 82 Grad mit Standart Lüfter). Die Leistungs aufnahme ist bei meinen System auch nur bei 240 Watt max. wo man die Otopischen zahlen her nimmt weiß ich nicht!

Klar ist NV in dem gebiet Wärme und Stromverbrauch trotzdem besser! Aber wie scho Gesagt 100 Mio. Trans. für besser Optik (Avivo, HDRR+AA z.B. bei The Edlers Scrolls 4) zeigt mir das ich mich für die richtige Karte entschieden habe!

ATI Rulz nun mal in Punkto BQ und Leistung
 
Deine Meinung! ;)

Dann hast Du noch nicht genug flame-threads hier bei CB gelesen. Ist nahezu immer Thema!


Damit verabschiede ich mich aus diesem Thread, der sicherlich nur noch im Kreis führt.... :n8:
 
Danke für den sehr guten Test. Dazu auch noch, das ihr nicht Single/SLI/Crossfire zusammengewürfelt sondern getrennt habt, damit ist es jetzt viel übersichtlicher.
Die Komments durchlesen, spare ich mir mal, da hier mal wieder die meisten nur nVidia vs. ATI schreiben.



:)
 
So ein was noch:

von CB bestätigt weil von ihnen geschrieben.

Zitat: Wie der HQV-Benchmark beweist, hat ATi mit ihrer Avivo-Technologie nicht zu viel versprochen und präsentiert einen wirklich guten Video-Prozessor, der deutlich über der Videotechnologie des G70-Chips bezüglich der Bildqualität steht. nVidia hat dort noch einiges aufzuholen
 
Schöner Artikel. Nur die Lautstärke macht mir Sorgen. Die sollen endlich mal wieder so leise Kühler wie bei der X800 Serie verbauen...
 
gran85 schrieb:
So ein was noch:

von CB bestätigt weil von ihnen geschrieben.

Zitat: Wie der HQV-Benchmark beweist, hat ATi mit ihrer Avivo-Technologie nicht zu viel versprochen und präsentiert einen wirklich guten Video-Prozessor, der deutlich über der Videotechnologie des G70-Chips bezüglich der Bildqualität steht. nVidia hat dort noch einiges aufzuholen

Okay, deine ursprüngliche Aussage "PureVideo ist langsamer und unterstützt weniger Format auserdem entlastet es nicht halb so gut den CPU!!!" ist schon nicht mehr haltbar. Jetzt geht es mit der Bildqualität weiter. Ich habe mir den zitierten Test mal angeschaut: "Den PureVideo-Decoder von nVidia haben wir bewusst außen vor gelassen, obwohl dieser eventuell eine Verbesserung erzielt hätte. Im Gegensatz zu Avivo ist PureVideo kostenpflichtig, weswegen der Avivo-Konkurrent nicht getestet wird."

Es wurde also nicht AVIVO gegen Purevideo getestet, sondern AVIVO gegen unbeschleunigtes Software-Playback ohne Purevideo-Decoder, der die Purevideo-Features aktivieren kann. Das ist nicht ganz fair, wenn wir hier die ganze Zeit von Purevideo reden. Ich gebe zu, dass der Purevideo-Decoder umsonst verteilt werden sollte. Aber es gibt ja auch andere Software wie PowerDVD, WinDVD, Nero Showtime, die die ganzen Features jetzt schon unterstützt bzw. H.264 bald unterstützen wird.
 
gran85 schrieb:
Aber wie scho Gesagt 100 Mio. Trans. für besser Optik (Avivo, HDRR+AA z.B. bei The Edlers Scrolls 4) zeigt mir das ich mich für die richtige Karte entschieden habe!

ATI Rulz nun mal in Punkto BQ und Leistung


Du scheintst das Spiel noch nie gespielt zu haben, was, denn es unterstützt kein HDRR+AA ^^, aber das will man dann gar nicht wissen, würde ja ein Kaufargument für ne ATI Karte zunichte machen :rolleyes:
 
HugeXL schrieb:
Du scheintst das Spiel noch nie gespielt zu haben, was, denn es unterstützt kein HDRR+AA ^^, aber das will man dann gar nicht wissen, würde ja ein Kaufargument für ne ATI Karte zunichte machen :rolleyes:

Bald wirds aber angeblich gehen wenn der neue Patch rauskommt..
 
Dann wirds aber kein echtes HDR sein. Entweder man spielt dann mit Bloom oder unechtem HDR, aber mit echtem HDR und AA kannste vergessen. ;)
 
twixter schrieb:
Dann wirds aber kein echtes HDR sein. Entweder man spielt dann mit Bloom oder unechtem HDR, aber mit echtem HDR und AA kannste vergessen. ;)

Wieso ne wenn wirds überhaupt echtes HDR sein bei OBlivion wird doch 64 bit Hdr verwendet und bei FP 16 HDr geht auf denn Ati Karten auch AA zusammen..
 
Toller Test!

Vielleicht ne blöde Frage, aber warum habt ihr die 7900 GT nicht im SLI-Modus gebencht?
 
PARA schrieb:
Toller Test!

Vielleicht ne blöde Frage, aber warum habt ihr die 7900 GT nicht im SLI-Modus gebencht?


Wahrscheinlich weil sie keine 2. GT bekommen haben ;) ? Muster stammte ja von MSI.

Mfg
 
Zurück
Oben