Test ATi gegen Nvidia: 14 Grafikkarten verschiedener Baujahre im Vergleich

Nvidia GeForce 6800 - Damals im P4
ATi Radeon HD 2600 XT - In meinem C2D iMac
GTX 260 (Nicht im TesT) - In meinem Phenom X4 940 BE

Schon lustig wie sich die Leistung gesteigert hat.
 
digitalangel18 schrieb:
Die Shaderleistung der Ati Karten war weit besser als die der NVidia Gegenstücke. Bei den damaligen Spielen war das aber noch nicht so ausschlaggebend und die Leistung lag brach. Mitlerweile ist die Shaderleistung aber halt doch sehr wichtig, darum stehen die ATIs nun viel besser da, und die NVidia Karten der 6000 und 7000er Generation versagen in aktuellen Spielen komplett. Die Ati Karten hatten auch oft mehr Speicher drauf. Das macht sich heute dann sehr stark bemerkbar.

ja, aber das alles hat dir damals nichts gebracht. ich kauf mir doch keine Grafikkarte in der Hoffnung dass sie 2-3 Generationen später besser als das Konkurrenzprodukt läuft.
 
.p0!$3n. schrieb:
Wenn man das erst kurz nach Veröffentlichung erkannt hätte, dann wär es ein Armutszeugnis für die Entwickler.

Naja, die Versprechnungen gingen auch runter wie Butter. AMD hat - bzgl. Wünsche für Treiberverbesserungen - gesagt, dass sie nicht das Budget/Ressourcen haben alles auf einmal zu machen.
Nur finde ich das schon etwas arm, ja.
Siehe PCGH, die den Vram runtergetaktet haben und massiv weniger Verbrauch hatten...

Luxmanl525 schrieb:
[...]zu Anfang war auch ATI der Meinung, daß fehlerhaftes Powerplay [...] für den hohen Stromverbrauch verantwortlich ist. Seinerzeit war auch ein Bericht hierüber bei CB zu Lesen, [...] jedenfalls sollte das Malheur dann per Treiber schnell behoben werden. Als dann nichts Positives kam, wurde nochmal nachgefragt und es kam von ATI ein Statement, daß es wohl am Speicher liegt. Auch hierüber gab es ein Statement glaube ich auch auf CB, wo ich es gelesen habe[...]

PCGH z.B hat diesbezüglich einen Bericht gebracht (siehe oben). Ich glaube überhaupt nicht, dass AMD das nicht schon vorher gewusst hat, sondern einfach irgendwas behauptet hat.
Wie hat einer von AMD mal gesagt: Sie simulieren die Karten vorher, damit Planungsfehler vermieden werden...

Die Geschichte von AMD glaub ich einfach nicht, unabhängige Tests sind da einfach besser und ehrlicher.
 
Kreisverkehr schrieb:
unabhängige Tests sind da einfach besser und ehrlicher.

Das sieht wohl jeder so, aber PCGH? Schlechter Scherz, oder?

Das sind doch die, die bei der i7 Leistungsaufnahme nicht alle Schienen gemessen haben und so zu deutlich zu tiefen Werten fuer die Intel CPUs gekommen sind. Spaetestens hier haette haette man Konsequenzen ziehen muessen.

Und auch der letzte CPU Test war sehr ehrlich. :evillol:
Ich zitiere da einfach mal aus dem Forum:

"Es ist dennoch ein Betrieb außerhalb der Spezifikationen des Herstellers und darauf solltet ihr deutlichst hinweisen, das sowohl der Betrieb mit diesem Speicher nicht offiziell zugelassen ist, als auch der Prozessor selbst stark übertaktet wird!

Und da ihr ja den Bloomfeld übertaktet bzw außerhalb der Spezifikation betrieben habt, warum nicht auch den Phenom 2?!
"


Sorry, aber unabhaengige Tests sehen anders aus.
 
@ brabe

Ok, damit hast du Recht.
Allerdings bin ich nicht wie manch andere Personen hier und verfaelsche Zitate (wie man ja an den Link von dir sieht).
 
Mich erstaunt vor allem wie viel Leistung Oblivion, ein Spiel aus 2006, noch verschlingt. Mit aktivierter Bildverbesserung schafft es keine Karte über die 50 FPS Grenze.
 
Mal eine Frage kommt so ein Generationentest auch mal mit CPU´s?

Sprich, die P4, Celeron, Athlon 64 ect. gegen aktuelle?
 
@Kuehnel91 wegen den CPU Benchmarks:
Schau doch mal in Everst Home da gibts Benchs bzw. Speicher Lesedurchsatz, Speicher Schreibedurchsatz.... zu alten CPUs von Am5x86 (133MHZ) oder C6 (200MHZ) ect. bis hin zu Pentium EE840 (3200MHZ) oder P4EE (3733MHZ)
 
GreatEvil schrieb:
Das sieht wohl jeder so, aber PCGH? Schlechter Scherz, oder?

Das sind doch die, die bei der i7 Leistungsaufnahme nicht alle Schienen gemessen haben und so zu deutlich zu tiefen Werten fuer die Intel CPUs gekommen sind.

Ich will hier kein rumgeflame zwischen PCGH und CB anzetteln, das bringt keinen was. In diesem Fall hab ich mich nur auf den Test der PCGH bzgl. der Stromsparmechanismen bezogen, der Absatz mit "unabhängigen" Test war nicht auf PCGH bezogen, wobei das jetz nicht bedeuten soll, dass unabhängig nicht auch für PCGH gilt.

Bei den Intels isses komisch, da die 3,3V nicht gemessen wurde, aber dafür kann man kritisieren. Und bei jedem Test muss man selbst auch nachdenken.

GreatEvil schrieb:
Ich zitiere da einfach mal aus dem Forum:

"Es ist dennoch ein Betrieb außerhalb der Spezifikationen des Herstellers und darauf solltet ihr deutlichst hinweisen, das sowohl der Betrieb mit diesem Speicher nicht offiziell zugelassen ist, als auch der Prozessor selbst stark übertaktet wird!
"

Wenn du schon Stefan Payne zitierst, und das Zitat als gegen PCGH verwendest, solltest den Text des Artikels auch gelesen haben, wo explizit drin steht, dass der Umstand bekannt ist und ein Test bzgl. der Auswirkungen aussteht, bzw. kaum was ausmacht.

Eins seh ich anders: Nur weil die Leute wahrscheinlich keinen DDR3-1066 nehmen, sondern 1333er ist das einfach außerhalb und diese Rechtfertigung ist nicht ganz meine Sache. Wenn da steht: Keine Auswirkungen und daher machen wirs, dann isses ok.
 
Bei den Intels isses komisch, da die 3,3V nicht gemessen wurde, aber dafür kann man kritisieren.
Im Fließtext steht, dass nur 12V vermessen wurde und der i7 auch so noch zieht. Es gibt nur eine Redaktion weltweit, die bisher i7-only-Werte publiziert hat. Hierfür muss man ein Board umbauen und das ist verdammt aufwendig und kompliziert.
 
kuehnel91 schrieb:
Mal eine Frage kommt so ein Generationentest auch mal mit CPU´s?

Sprich, die P4, Celeron, Athlon 64 ect. gegen aktuelle?

Da ist es bissel schwieriger, wegen den diversen Sockeln und Plattformen. Diese verzerren mitunter das Bild doch deutlich. Bei Intel wär das bis zu den letzten P4 (Prescott), die schon Sockel 775 waren, sicher etwas einfacher, nur bei AMD war da noch AM2, AM2+ usw. Mindesten 6 verschiedene Mainboards, wenn man noch den Vorgänger von AMD mit 754 und 939 hinzuzählen würde, und dann wären noch nen haufen CPUs außen vor, Sockel LGA 1366 und neu dann 1156. Das bringt nix.
 
Zuletzt bearbeitet:
Kreisverkehr schrieb:
Naja, die Versprechnungen gingen auch runter wie Butter. AMD hat - bzgl. Wünsche für Treiberverbesserungen - gesagt, dass sie nicht das Budget/Ressourcen haben alles auf einmal zu machen.
Nur finde ich das schon etwas arm, ja.
Siehe PCGH, die den Vram runtergetaktet haben und massiv weniger Verbrauch hatten...



PCGH z.B hat diesbezüglich einen Bericht gebracht (siehe oben). Ich glaube überhaupt nicht, dass AMD das nicht schon vorher gewusst hat, sondern einfach irgendwas behauptet hat.
Wie hat einer von AMD mal gesagt: Sie simulieren die Karten vorher, damit Planungsfehler vermieden werden...

Die Geschichte von AMD glaub ich einfach nicht, unabhängige Tests sind da einfach besser und ehrlicher.

Die werden sich wohl nie intern "bescheißen", und bei Planug sowas außer Acht zu lassen ist grob Fahrlässig. Irgenetwas behaupten um Karte zu verkaufen kann ja auch keine ernst gemeinte Aktion sein, da der erste unabhängige Test alles aufdeckt.
Wenn PCGH den VRAM runter takten kann, kann ATI das auch, müssen se sich ein wenig anstrengen. Wenigstens die Ingoneure wussten das GDDR5 Saft schluckt. Die hättens an die Programmierer der Treiber weiter geben müssen, oder per Hardware eine eigene Taktung vornehmen. Das gild aber nicht nur für AMD sonder ebenso für nvidia...:(

Luxmanl525 schrieb:
Also daß ich C & C 3 mit meiner alten Hardware Flüssig Spielen konnte, lag denke ich schlicht daran, daß es eben ein Strategiespiel war welches nicht gänzlich auf 3D ausgelegt war.

Bei Oblivion wiederum hatte ich extrem mit den Settings herumexperimentiert. Auch in den Ini-Dateien, da konnte man schon ziemlich viel Optimieren. So daß praktisch kein Ruckeln zu Merken war, wobei ich diesbetreffend übrigens empfindlich bin. Ruckler gab es nur nach Nachladephasen. Übrigens, vielleicht habe ich das nicht richtig rübergebracht, aber Oblivion war natürlich mit meiner Alten Hardware mit AA + AF nicht Spielbar.

Nun, die Geforce 8800 GTS 640 war bisher die beste Karte die ich je hatte. Und ich hatte einige. Zudem war noch nie eine so lange Up to Date bzw. hielt so lange noch mit. Was natürlich der extremen Übertaktbarkeit geschuldet ist, was ich bei sonst keiner Karte so erlebt habe, als da wären Geforce 3, Radeon 9500, Radeon 9800 XT, Radeon X800 XT.

So long.....

Ja ohne AA oder AF kanns gut gehen... wennde dann noch ini- tuning betreibst ist das ja kla.
Gut, das mein ich ja grade das Keine andere Karte so lange mithalten konnte. Lieg vielleicht auch daran das seit 2007 mit der Cry Engine2 auch nicht annähernd so gutes raus kam. Optik/leistung sind überragend. Auch wenn einige das Gegenteil behaupten. :lol:

OF-Topic on
Ich hab mit ner Geforce 2 MX400 angefangen, dann ne Leadtek 4800ti (ein Hammer Teil hielt auch lange) erst als schon die 7xxx Raus kamen, habe ich mir ne 6800LE geholt. Jetzt habe ich noch eine weitere 6800 und meine heiß geliebte 8800GTS *träum*. Mir fällt grad auf, ich hatte noch nie ATI... obwohl ich die XXTX1900XTXTTXX :freak: sehr bewundert habe!
OF-Topic off


so far
p0is3n
 
@ y33H@

Wenns im Text stand, hab ichs überlesen. Trotzdem ist der zusätzliche Verbrauch ebenso relevant, auch wenns nur 3W wären, ka. Is aber auch egal, das Gesamtsystem ist wichtig, auch wenn jedes Board was anderes verbraucht.

.p0!$3n. schrieb:
Die werden sich wohl nie intern "bescheißen", und bei Planug sowas außer Acht zu lassen ist grob Fahrlässig. Irgenetwas behaupten um Karte zu verkaufen kann ja auch keine ernst gemeinte Aktion sein, da der erste unabhängige Test alles aufdeckt.
Wenn PCGH den VRAM runter takten kann, kann ATI das auch, müssen se sich ein wenig anstrengen.

Naja, ich kann nur vermuten, aber es wird einen guten Grund haben, warum sie es nicht machen. Den Grund werden sie der Öffentlichkeit nicht präsentieren, auch (und vor allem) wenn der Grund wirklich grob fahrlässig wäre/ist. Magst du Spekulatius? Schmeckt ganz gut :freak:
 
Jo smeckt gut ;)

Dacht mir wenn du den Keks schon probierst kann ich auch mal zulangen.
Ist ja nur logisch.
Da wo es um großes Geld geht haben Firmen freiwillig nichts zu verlieren und tun alles (un)erlaubte um Gewinn zu steigern. So ists leider.

Und noch ein Keks.... sind gut heute:
Ich wette alle Karten werden Grün. Green IT. Mann muss sich den Wünschen der Verbrauch anpassen. Und da momentan kein Hunger auf mehr Leistung (wofür brauchts der breite Markt auch?) vorhanden ist, muss was anderes geschehen.

so far
p0is3n
 
Klar, sind ja nich nur für mich da, v.a. weil sie ziemlich gut sind *g*

Also, das mit mehr Leistung: Ich brauch mehr Leistung, und ich glaube nicht, dass die jeweiligen Topmodelle auch nur 10W weniger verballern als die jetzt schnellsten Karten.
Vllt kommt "GreenIT" endlich in der Mittelklasse an?

Wobei sparsam und Idleverbrauch für mich sehr wichtig sind, unter Vollast ist mir der Verbrauch (fast) egal, wenn die Leistung dafür stimmt. In Bezug auf die im Test erwähnte 2900XT hat das Verhältnis zwischen Verbrauch unter Last zur Leistung einfach nicht gestimmt und ich hoffe, sowas kommt nicht mehr vor...
 
Kreisverkehr schrieb:
überflüssiges Zitat entfernt *klick*

Beide Aussagen würde ich so unterschreiben, siehe 9600 Green .
Und High End liegt das Entwiklungsziel primär auf viel Leistung. HighEnd sollte sich zumindest im idel aber zurückhalten, damit die Leistung nicht "im nix verpufft".

so far
p0is3n
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben