News AMD torpediert Nvidia mit Benchmarks zur R9 290X

Smagjus schrieb:
Man sollte vielleicht mal erwähnen, dass die Taktraten verschiedener Architekturen einfach nicht vergleichbar sind.

und ?

deswegen muss man dennoch keine künstlich gebremste titan gegen eine massivest an den rand getriebene neu-karte benchen nur um 17% in nem gewählten benchmark zu erreichen.

ich wette, die amd karte reisst keinen baum um in den regulären benchmarks!
 
Kowa schrieb:
Bei den Tests zur 280X kommt mir der Verdacht, dass die alle schon ein wenig OCed sind, ebenso wie die CPUs und daher auch etwas mehr Strom ziehen, zumindest unter Last. Der Strom wäre mir ja egal, aber wenn schon stock hochgeschraubt ist?

Hast Du die Tests auch gelesen? Die 280X sind im Endeffekt 7970er welche bei einigen AMD-partnern nochmal zwecks PCB-layout und Kühler überarbeitet wurden. Dass die Hersteller zum Start bereits leichte OC-Varianten anbieten ist doch völlig normal. Ich bin in keinster Weise beeindruckt von einem "Werks-OC" auf 1100 oder 1150 MHz, da man Tahiti bekanntermaßen relativ gut übertakten konnte. Viele 7950er liefen z.B. gut mit 1200 MHz, dem setzten einzig die Kühlmöglichkeiten und die krude Boost-Umsetzung inklusive Spannungsfestlegung recht enge Grenzen. Da ist - in Relation zur seit langer Zeit erhältlichen 7970er - keine nennenswerte OC-Aktions eitens AMD getätigt worden um künftig mehr leistung herauszuquetschen.

Da hatte ich eher bei den GTX 670/680ern den Verdacht dass hier ein Mittelklassechip auf's Maximum gezüchtet worden ist.


Davon mal abgesehen ist es fast schon beschämend wieviel Unwissen und Voreingenommenheit hier breitgetreten wird. Seiten wie THG haben ihre 4K-Tests gepostet, wer die anzweifelt kann gleich JEDEN Test im internet anzweifeln.
Und hochwertige Karten würde ich IMMER in einem Szenario testen welches CPU-Limitierung ausschliesst und die Karte auch fordert. Es kauft sich doch niemand sowas um CoD mit 200 FPS zu spielen - wobei, für 3D könnte das ja dann taugen...

Spaß beiseite, sicherlich fehlt komplexeres benchmarking um zu einem Schluss zu kommen, aber die Karte ist ja auch noch nicht released. Was man nicht kaufen kann, braucht auch keine jetzige Kaufentscheidung. Fakt ist, die 290X bewegt sich auf dem Niveau des GK110 auf Consumerkarten, tendenziell etwas darüber. Klar fehlen dann noch Erfahrungen wie weit man in etwa solche Modelle übertakten kann und was dann ein übertakteter GK110 dagegen ausrichtet, aber eines ist sicher: das WIRKLICh relevante Kriterium wird der Preis sein, denn gute Kühler wird wenigstens ein Boardpartner wohl anbieten.

Und ohne Preis ist das alles müßiges Geschwätz.

MikelMolto schrieb:
@
Welche NDA ist denn am 15.10. gefallen, weil dieses Datum stand ja so auf der AMD Folie? In der Normalen Welt heisst ja Verkaufsstart wenn die NDA fällt. Das AMD viel ankündigt aber man kann es einfach nicht kaufen hat ja schon System.
Ich habe überhaupt kein Problem damit wenn Ihr euch veräppeln lasst aber deshalb muss doch nicht jeder zu diesem Affentheater Beifall klatschen und die AMD Fahne schwenken. Manchmal glaubt man, dass Ihr alle Aktien von denen habt.

Weil die Internetsuche kaputt zu sein scheint: eine NDA ist ein non-disclosure-agreement http://de.wikipedia.org/wiki/Geheimhaltungsvertrag, es bedeutet dass man darüber REDEN darf. Von einem Verkaufsstart war da nie die Rede und das hat damit nichts zu tun.
Affentheater ist übrigens ein schönes Wort, immerhin hast Du eine Karte im Rechner welche seitens nVidia mit demselben Affentheater gesegnet worden ist. Rebranding der letzten Generation für etwas weniger Geld mitsamt neuem Spitzenmodell welches leichte Anpassungen in der Architektur und in erster Linie aus mehr Transistoren bestand. Toller Fall von eigener Realitätsblase.

HW-Mann schrieb:
und ?

deswegen muss man dennoch keine künstlich gebremste titan gegen eine massivest an den rand getriebene neu-karte benchen nur um 17% in nem gewählten benchmark zu erreichen.

ich wette, die amd karte reisst keinen baum um in den regulären benchmarks!

Ah, Du hast also auch diese Tests durchgeführt? Nicht? Schade, dann hast Du sicher die neueste Glaskugel auf dem Markt oder? Nicht? Oh... also doch nur heisse Luft...

http://www.tomshardware.com/news/amd-radeon-r9-290x-benchmark-performance,24732.html

Ich bin sicher Du weisst auch dass THG von AMD bezahlt wird, nicht wahr?
Davon abgesehen, haltet euch an Fakten bevor ihr euch eine Meinung bildet - und zum Meinung bilden gibt es derzeit zuwenig Fakten. Punkt.
 
Zuletzt bearbeitet:
HW-Mann schrieb:
deswegen muss man dennoch keine künstlich gebremste titan gegen eine massivest an den rand getriebene neu-karte benchen nur um 17% in nem gewählten benchmark zu erreichen.

Wohei weißt du, dass die R9 290X schon am Anschlag läuft?
Auf die Temperaturwerte mit Referenzkühler würde ich nicht allzuviel geben. Dieser schlechte Kühler war schon mit der HD7970GHz überfordert. Das kann man AMD zwar auch ankreiden, aber es zwingt einen ja keiner den Referenzkram zu kaufen.
Das richtige OC-Potential der 290er wird sich erst mit guten Custom-Kühlern zeigen. Theoretisch könnte da einiges drin sein, weil diverse potentielle Flaschenhälse, die Tahiti wahrscheinlich noch zurück gehalten haben (Speicherbandbreite, ROPs usw.), ausgeräumt wurden.

ich wette, die amd karte reisst keinen baum um in den regulären benchmarks!

Es sind ja schon reichlich Benchmarks draußen. Die 290X liegt fast immer deutlich vor der (als Ziel anvisierten) GTX780 und ungefähr auf dem Niveau der Titan (die sich durch ihren absurden Preis disqualifiziert). Manchmal leicht dahinter, manchmal recht deutlich davor.

Es ist zwar schon etwas traurig, dass eine über ein Jahr neuere GPU die Konkurrenz nicht wirklich deklassieren kann, aber man muss halt auch sehen, dass es eine wesentlich kleinere GPU im selben Fertigungsprozess ist.
Wenn AMD >30% gegenüber der HD7970GHz zulegt, dann kann man aus technischer Sicht eigentlich nicht enttäuscht sein. Der Rest ist eine Frage des Preises.

Dass Nvidia mal eben spontan einen Konter aus dem Ärmel schüttelt, der sich so deutlich vor die 290X setzt, um weiterhin Mondpreise wie bei der Titan zu "rechtfertigen", glaube ich nicht. Auch ein GK110-Vollausbau wird nur ein paar Prozent zulegen können.
 
Zuletzt bearbeitet:
Sauron Reloaded schrieb:
Die Zahlen für die GTX780 sehen aber ganz anders aus.Teilweise wird die Karte immer noch für 600€ verkauft, obwohl man sie schon bei 490-530€ kriegen sollte.Und die 3 Games die mit geliefert werden, wenn man am 28.10.13 eine GTX780 kauft, sind für mich typische marketing-Taktiken. :D ich hoffe echt dass die Preise günstiger werden.

Jo, und das ist vor allem dann ärgerlich wenn man sich gerade - wie ich - eine GTX 780 gekauft hat ;-) Naja, R9 290X hin oder her - bleibe bei meiner EVGA Classified. Hat noch wunderbar Potential nach oben.
 
Kartenlehrling schrieb:
"Auf der integrierten Grafik des Core i7-4770K läuft die Battlefield 4 Beta damit flüssig - aber in 256 x 192 Pixel."

ct hat mal auf ner Ifa Publikum zwischen StandardTV und HD vergleichen lassen. Ich bin gespannt ob mal ein Magazin auf die Idee kommt einen derartigen Vergleich mit einem DemoVideo in SQ (Spectrum Quality) und HD anzubieten. Und zwar vor Publikum das nicht weiß was eine 290x und was eine Titan ist, also das Video selbst anschaut.
 
Und die Dual 770 kann man kontern mit z.B. ner Dual R9 290 (ohneX) und ist wieder 30-50% vorn....????

OC kann man ne R9 290X bestimmt auch und Titant mi "Handbremse" ist nunmal der normalfall wenn man nicht extra in kühlung investiert und vor ALLEM mal die benchmarks ein bisschen länger laufen lässt als 30s...

Diese drecks OC features speziell von nVidia (da sie ja erstmal so schnell hochtakten) verzerren bei so kurz benches einfach das bild zu sehr. (gilt für AMD aber auch - nur nicht so ausgeprägt, da Features die nicht so "gut/schnell" reagieren bzw. VIEL konservativer eingestellt sind @default)

FAKT ist Toms hat in Benchmarks im Mittel +16% vs. GTX780
FAKT ist HT4U die tendenziell IMO immer sehr gut balancierte Benches fahren und der "realität" am nächste gekommen sind (insbesondere bei Betrachtung der instant turbo boost).
Liegt die R290X @3840x2160 im Mittel von 17 spielen bei +31% vs GTX780 !!!
Selbst wenn man Sleeping dogs mal rausnimmt wo die GTX 780 wohl VRAM bedingt wegbricht bleiben im Schnitt 24% Über GTX780.

Ne Titan @Normalbetrieb (nix "handbremse" liegt da bei allerdings nur 2560er Auflösung bei +9%....

EDIT: aus dem HT4u Test: "Wie von NVIDIA versprochen, steigert sich durch die automatische Spannungszugabe nun auch der maximale Boost-Takt der Karte und zwar von 993 MHz auf 1032 MHz. Unsere vorstehend gezeichneten Diagramme – abermals auf Basis Anno 2070 als Applikation – zeigen jedoch, dass der hohe Takt nur von kurzer Freude ist. In weniger als einer Minute fällt die Titan hier auf 993 MHz zurück, nach etwas mehr als einer Minute auf 888 MHz und nach zirka 2 Minuten auf 836 MHz.

Sind die ersten Taktreduzierungen hier noch dem Power Target geschuldet, zeigen unsere Aufzeichnungen, dass dies sich schnell in den Bereich von 75 Prozent reduziert. Ab dort limitiert dann wiederum das Temperature Target. Der Lüfter bleibt weiterhin bei Spitzen von 2350 Umdrehungen pro Minute, um diesen Temperaturbereich halten zu können."

Also läge ne R9 290X wohl eher bei +15% vs Titan @Normalbetrieb.
Dies passt auch wunderbar zu den Architekturdaten die mittlerweile geleaked sind.

Und Übertakten kann man beide. Und ich bin mal gespannt was Mantle da noch bringen mag und nicht zu vergessen die Titan Treiber sind schon ziemlich optimiert die R290X treiber werden wohl noch ~10-20% vs diese BETA treiber im laufe der Jahre zulegen können (siehe einfach die Seiten mit Fortlaufenden Treiber Benchmarks).
 
Zuletzt bearbeitet:
Lay-C schrieb:
AMD hat es geschafft veraltete Technik mit neuer knapp zu schlagen

AMD kann doch nichts dafür das Nvidia den Fanboys nur total veraltete Karten anbieten kann.

AMD kann in sachen Leistung nicht mithalten

Mal sehen:

Performance - 290x führt knapp vor Titan
Technik - AMD bietet DX11.2 während Nvidia immer noch und bis weit ins nächste Jahr mit DX11.0 hantiert

Du hast vollkommen Recht, einer der beiden Rivalen ist hoffnungslos abgeschlagen.
 
Wieso die Titan bei den vergleich Benches immer mit den 876Mhz läuft frage ich mich auch.
Lasst sie doch auch mal mit 1000Mhz laufen, was jede ohne Spannungserhöhung mitmacht um einen Realen verglich der Chips zu ziehen.
Mal sehen wer dann immer vorn liegt.
Bin ich froh wenn endlich vernünftige Tests erscheinen und nicht diese Marketinggeschichten :rolleyes:
 
Kenneth Coldy schrieb:
Technik - AMD bietet DX11.2 während Nvidia immer noch und bis weit ins nächste Jahr mit DX11.0 hantiert

Ob DX11 , 11.1 oder 11.2 ist reine Makulatur.

Aber AMD baut super Karten und das mit einem Preis-Leistungsverhältnis das besser kaum geht.
 
Hoot schrieb:
Sofern der GK110 wirklich der eigentliche 680Chip gewesen ist, aber aufgrund unerwartet schwächer 7000er Reihe "verschoben" wurde ...

War es definitiv nicht. AMD baut nie so große Chips wie Nvidia und man liegt pro Generation bei +50-65% Transistoren. Somit war die Leistung der 7000er Reihe keine Überraschung. Der GK110 wäre so oder so deutlich besser gewesen weil man hier einfach mal +133% mehr Transistoren als beim Vorgänger hat. Es war seitens Nvidia von Anfang an geplant den GK104 als 680 zu bringen, sonst hätte man nicht +82% mehr Transistoren drauf geklatscht, da man genau weiß dass der Konkurrent nur +63% Transistoren mehr pro Generation drauf klatscht.

Hoot schrieb:
.... Maxwell mit der 290X messen muss

Maxwell kommt doch eh erst im 20nm Node. Maxwell in 28nm macht kein Sinn, da man schon die max. wirtschaftliche Chipgröße erreicht hat. Den großen Maxwell Chip werden wir frühestens in einem Jahr sehen.

Hoot schrieb:
So schnell einen Refresh wird es nicht geben, die Chipfläche vergrößern würde den Stromverbrauch noch weiter steigen lassen...

Nein, bei gegebener Leistung X senkt ein größerer Chip den Stromverbrauch.

Es gibt 2 Möglichkeiten Leistung X zu erreichen.

Variante A: Großer Chip mit mehr Transistoren, dafür geringere Takt, Spannung -> niedrigere Leistungsaufnahme als Variante B, dafür aber wesentlich teurer in der Produktion.

Variante B: Kleiner Chip mit weniger Transistoren, dafür mehr Takt und Spannung -> höhere Leistungsaufnahme als Variante A, dafür bedeutend billiger in der Produktion.
 
Wieso die Titan bei den vergleich Benches immer mit den 876Mhz läuft frage ich mich auch.
Lasst sie doch auch mal mit 1000Mhz laufen, was jede ohne Spannungserhöhung mitmacht um einen Realen verglich der Chips zu ziehen.

Ist bei HT4u doch schöne erklärt warum - die machen das nämlich auch nicht dauerhaft mit da ins PT und TT Limit laufen. Nur durch "richtiges" OCing geht dann da noch was.

Und warum also die "leistung" im benchmark künstlich verfälschen weil man für 2minuten nen "turbo" hat - der bringt dir nur im Mittel nix beim 4h Battlefield zocken....
 
Matzegr schrieb:
War es definitiv nicht. AMD baut nie so große Chips wie Nvidia und man liegt pro Generation bei +50-65% Transistoren. Somit war die Leistung der 7000er Reihe keine Überraschung.

Das sehe ich komplett anders und auch Nvidia selbst hat offiziell bestätigt, dass sie bei Tahiti mit wesentlich mehr Leistung gerechnet hätten.

Auf dem Papier ist Tahiti der GK104 auch in so ziemlich jeder Hinsicht deutlich überlegen. Größer, komplexer, mehr Shader, mehr SI usw. usw.

Es wäre ein extremes Glücksspiel für Nvidia gewesen, von Anfang an zu versuchen, Tahiti nur mit einem sehr viel kleineren und von den technischen Daten deutlich unterlegenen Chip zu kontern und den üblichen Big Chip erst viel Später als eigene Klasse darüber bzw. als Flagschiff dernächsten Generation zu bringen. Das kann unmöglich so geplant gewesen sein.

Ich kann mir einfach nicht Vorstellen, dass Nvidia sich auf so ein halsbrecherisches Risiko eingelassen hätte. Wäre Tahiti so stark wie erwartet oder gar noch stärker geworden (wie z.B. damals Cypress), dann hätte Nvidia ein ganzes Jahr lang nichts gehabt, dass sie AMD im High End entgegen setzen könnten.

Dafür hätte Nvidia einen Glaskugel haben müssen, die ihnen schon viele Monate vorher ohne jeden Zweifel gezeigt hätte, dass Tahiti so schwach wird, dass man ihn mit einem kleineren Performance-Chip kontern kann. (Was so ziemlich das erste mal in der jüngeren Geschichte ist. Ansonsten brauchte Nvidida immer größere Chips, um AMDs GPUs zu toppen.)
Und es ist ja auch nicht so, dass da viel Luft gewesen wäre, zwischen GK104-GTX680 und HD7970. Das war gerade mal eine Punktlandung. Wie hätte Nvidia das lange in Voraus wissen können und ihre gesamte Zukunft davon abhängig machen?

Für mich spricht einfach alles dafür, dass Nvidia ursprünglich mit einem typischen Big Chip geplant hatte, wie jedes mal zuvor seit der G80. Erst als sie wussten, wie stark (oder schwach) Tahiti wirklich wird, haben sie kurzfristig umgeplant und den verschoben.
Dafür spricht auch die Benennung der GPUs, deren technsiche Daten (GK104 ist in jeder Hinsicht eine klassische Performance-GPU, kein High-End) und auch die Erscheinungstermine usw.
 
@matzegr:
Aber bei Maxwell ist noch nicht mal sicher, ob er wirklich in 20nm kommt oder doch irgendwas in 28nm kommt - Sinn macht es natürlich nicht.
Die Gerüchte sind hier aber noch recht wage.

Trotzdem hat AMD den bisherigen Leaks zufolge Probleme den Stromverbrauch niedrig zu halten - 400W sind (sofern Realität) einfach pervers und weit weg von "weniger"...
Dass man einen großen Chip langsamer Takten lassen kann, ist auch klar - nVidia wird bei einer hoher gestakteten Titan auch einen Verbrauchsanstieg haben - dann liegt sie auf 290X Niveau. Aber einen großen 290X mit hohem Takt würde dann noch mehr brauchen, was schlimm wäre im Rahmen von green it ...
 
Kasmopaya schrieb:
Nope, hatte einen schönen Vergleich Q9450 v. 4Ghz+ Ivy-E.

Rome II ist doch generell schon ein Problem. Wurde von vielen Spielemagazinen sogar abgewertet.
Würde mich nicht wundern wenn die FPS-Probleme nur auf einen von vielen Bugs im Spiel zurückzuführen sind.

xxxx schrieb:
@Lay-C Genau deswegen können Nvidia Karten bis heute kein vollständiges DirectX 11.1 :stock:

Können sie schon. Zumindest die Spielrelevanten teile. Der Rest lohnt anscheinend in den Augen von nVidia nicht für Gamerkarten. Ansonsten würden sie es implementieren.
 
Iscaran schrieb:
Ist bei HT4u doch schöne erklärt warum - die machen das nämlich auch nicht dauerhaft mit da ins PT und TT Limit laufen. Nur durch "richtiges" OCing geht dann da noch was.

Und warum also die "leistung" im benchmark künstlich verfälschen weil man für 2minuten nen "turbo" hat - der bringt dir nur im Mittel nix beim 4h Battlefield zocken....

Entschuldigung aber das ist totaler Blödsinn. Schau die mal die Karten mit einem "guten" ASIC von z.B. über 80%an. Die laufen von Haus aus schon mit über 1006Mhz im Boost ohne ins Temp- oder Powertarget zu laufen :freak:
Und bei den weniger guten Karten (ASIC <75%) läufst du auch nicht rein. bzw. throtteln diese nicht wenn man auf PT von 106% geht bzw. dem Chip nicht die Luft abschnürt.
Ich will vergleichen zwischen den Chips/Architekturen sehen und nicht irgend ein beschnittenen Marketingquatsch.
Und mit "richtigem" OC der Karten kommt man in der Regel ohne Probleme auf über 1100Mhz bzw. ohne die Spannung anzuheben. Mit 1.2~1.25V geht meist auch 1200Mhz ohne sonderliche Probleme bzw. runtertakten der Karte.
 
SaarL schrieb:
Die hat sogut wie jeder... selbst mit 1650x1080 Monitoren.
Stichwort: OGSSAA (Downsampling).

Und ich denke viele (die geplant eine solche leistungsstarke Karte kaufen, nicht der "Mainstreamkunde", welcher nur "DVD rein, Spiel los" kennt) benutzen sowas.
Das glaube ich kaum. Die wenigsten dürften Downsampling nutzen,selbst die Forennutzer nicht.
Absolute Minderheit die das nutzt.
 
Iscaran schrieb:
EDIT: aus dem HT4u Test: "Wie von NVIDIA versprochen, steigert sich durch die automatische Spannungszugabe nun auch der maximale Boost-Takt der Karte und zwar von 993 MHz auf 1032 MHz. Unsere vorstehend gezeichneten Diagramme – abermals auf Basis Anno 2070 als Applikation – zeigen jedoch, dass der hohe Takt nur von kurzer Freude ist. In weniger als einer Minute fällt die Titan hier auf 993 MHz zurück, nach etwas mehr als einer Minute auf 888 MHz und nach zirka 2 Minuten auf 836 MHz.

Sind die ersten Taktreduzierungen hier noch dem Power Target geschuldet, zeigen unsere Aufzeichnungen, dass dies sich schnell in den Bereich von 75 Prozent reduziert. Ab dort limitiert dann wiederum das Temperature Target. Der Lüfter bleibt weiterhin bei Spitzen von 2350 Umdrehungen pro Minute, um diesen Temperaturbereich halten zu können."

Nice, das ist interessant. Das heißt doch im Prinzip dass die Titan auf maximale Benchmarkpunkte optimiert ist und für's zocken am Ende weit weniger gut ist, als die Tests suggerieren. Alle am Bescheißen heutzutage... bei Smartphonebenchmarks ist es das gleiche und bei Autoverbrauchsprüfständen mittlerweile auch. Neuere BMWs erkennen durch ihre Sensorik auch dass sie auf einem Prüfstand fahren und nicht auf einer richtigen Straße und fahren die Lichtmaschine ab. Dadurch wird der Benzinverbrauch gesenkt und kurzzeitig kann man auch fahren, ohne die Batterie damit zu laden. In der Realität braucht man die Lichtmaschine aber schon und der Test ist am Ende verzerrt... ätzend.
 
Zurück
Oben