News AMD torpediert Nvidia mit Benchmarks zur R9 290X

@Sturmhardt: geb dir vollkommen recht!
warum jammern eigentlich so viele, dass die Titan mit "so niedrigen Taktraten" läuft!? -> sie ist halt nunmal @Stock so und es wird nunmal Stock vs. Stock verglichen und keine "Super-OC-Titan" (vielleicht noch mit Wasser- oder Stickstoffkühlung^^ um den exorbitanten Preis - verglichen mit den anderen Karten - recht zu fertigen?!), da ist es egal ob die Karte X vom Werk aus schon "am Limit" läuft oder nicht! ;)
 
Herdware schrieb:
Dass Nvidia mal eben spontan einen Konter aus dem Ärmel schüttelt, der sich so deutlich vor die 290X setzt, um weiterhin Mondpreise wie bei der Titan zu "rechtfertigen", glaube ich nicht. Auch ein GK110-Vollausbau wird nur ein paar Prozent zulegen können.

Die müssen ja auch nicht weiter die Mondpreise verlangen. Sie konnten es ja schon über Monate hinweg anders als AMD machen. Also braucht man nur kurz die Titan ein bisschen zu refreshen und die Preise in Summe über die gesamte Palette nach unten anzupassen und schon ist man wieder beim üblichen Status Quo. Da hat Nvidia anders als AMD Spielraum ohne Ende. Die werden genau das letztlich auch machen. Bei gleichem oder leicht höherem Preis kauft der Kunde sowieso lieber Nvidia. Zudem bin ich dann mal auf die Lautstärke und den Verbrauch gespannt. Denn wie gehabt werden zuerst die Referenzmodelle getestet und beurteilt und dieses Urteil zählt dann erstmal. Da bin ich mal gespannt ob AMD aus den Fehlern der Vergangenheit gelernt hat. Denn klar ist, dass es für brüllende Referenzdesigns nunmal keinen Applaus geben kann und darf.
 
Richthofen schrieb:
Die müssen ja auch nicht weiter die Mondpreise verlangen. Sie konnten es ja schon über Monate hinweg anders als AMD machen. Also braucht man nur kurz die Titan ein bisschen zu refreshen und die Preise in Summe über die gesamte Palette nach unten anzupassen und schon ist man wieder beim üblichen Status Quo. Da hat Nvidia anders als AMD Spielraum ohne Ende. Die werden genau das letztlich auch machen. Bei gleichem oder leicht höherem Preis kauft der Kunde sowieso lieber Nvidia. Zudem bin ich dann mal auf die Lautstärke und den Verbrauch gespannt. Denn wie gehabt werden zuerst die Referenzmodelle getestet und beurteilt und dieses Urteil zählt dann erstmal. Da bin ich mal gespannt ob AMD aus den Fehlern der Vergangenheit gelernt hat. Denn klar ist, dass es für brüllende Referenzdesigns nunmal keinen Applaus geben kann und darf.

Wenn ich mir die Chipgrößen bei beiden anschaue weis ich wer mehr Luft nach unten hat. Das Tegra Geschäft läuft mies...Ich glaube da bist du auf dem Holzweg:-)
 
Matzegr schrieb:
[...]
Was macht Anandtech anders?

Die sind dafür bekannt Intel/nVidia freundlich zu sein, sonst machen die nichts anders. Aber wir warten mal weitere Tests ab.
 
Entschuldigung aber das ist totaler Blödsinn. Schau die mal die Karten mit einem "guten" ASIC von z.B. über 80%an. Die laufen von Haus aus schon mit über 1006Mhz im Boost ohne ins Temp- oder Powertarget zu laufen
Und bei den weniger guten Karten (ASIC <75%) läufst du auch nicht rein. bzw. throtteln diese nicht wenn man auf PT von 106% geht bzw. dem Chip nicht die Luft abschnürt.
Ich will vergleichen zwischen den Chips/Architekturen sehen und nicht irgend ein beschnittenen Marketingquatsch.
Und mit "richtigem" OC der Karten kommt man in der Regel ohne Probleme auf über 1100Mhz bzw. ohne die Spannung anzuheben. Mit 1.2~1.25V geht meist auch 1200Mhz ohne sonderliche Probleme bzw. runtertakten der Karte.

Entschuldigung aber genau DAS ist totaler blödsinn der 0.01% der Nutzer interessiert (wenn überhaupt da nicht wirklich vergleichbarkeit gegeben ist).
Das einzige was man hier machen könnte wäre eine Art "Max OC Titan " vs "Max OC AMD karte" und die so erzielbaren Werte hängen einfach zu 90% von der Qualität des einen Chips ab den man testet und zu 10% vom "skill" des OCers...das ist dann immer noch nicht sehr vergleichbar aber zeigt zumindest was aus den Karten bei bester Fertigung rauszuholen ist.

BTW. mit "richtigem" OC gehen die 7970 auch bis 1400-1500 MHz...AFAIK

FAKT ist ab WERK mit default einstellung macht ne Titan was sie eben macht nämlich nach 2min ins PT/TT limit rauschen...manchmal sind halt auch 5min oder so ist klar das das keine konstante Zeit ist - älter weniger fordernde spiele läuft die Karte ebend auch nicht ins limit.

Aber zum "vergleichen" ist so ein Boost verhalten eben schlecht weshalb HT4u ja benched wie sie benchen und das ist IMO für den nVidia Boost aktuell mit eine der am "besten" Methoden um vergleichbarkeit zu gewährleisten.

Sonst müsste man nämlich 20 Titans benchen - alle im selben parcour und aus dem erhaltenen Mittelwert auf die Performance schliessen was auch totaler Quatsch ist.
 
Richthofen schrieb:
Also braucht man nur kurz die Titan ein bisschen zu refreshen und die Preise in Summe über die gesamte Palette nach unten anzupassen und schon ist man wieder beim üblichen Status Quo. Da hat Nvidia anders als AMD Spielraum ohne Ende.

Ein schöner Preiskampf wäre natürlich das Beste, was uns passieren kann. :D
Wobei ich überzeugt bin, dass beide besonders im High-End-Bereich preislich noch reichlich Luft nach unten haben.

Nvidia hat früher schon Big Chips, die größer waren als GK110 für um die 300€ verkauft (GT200). Keine Ahnung, ob sie damit dann noch nenneswert Gewinn gemacht haben, aber die Stückzahlen im High End-Bereich sind eh so klein, dass davon am Ende nicht wirklich abhäng, ob unterm Strich Plus oder Minus gemacht wird. Das Geld kommt über Mittelklasse und Low End rein (oder auch Profi-Karten).

AMD ist da auch keinesfalls schlechter aufgestellt als Nvidia. Hawaii ist wesentlich kleiner als GK110 und ist sicher nicht teurer in der Herstellung. AMD hat ja auch immer schon Preise kräftig fallen lassen. Es wäre das erste Mal seit langem, dass AMD/ATI wirklich (dauerhaft) teurer wäre als Nvidia. Das glaube ich erst, wenn ich es sehe.
 
Mr.Kaijudo schrieb:
Man kauft sich ja auch das absolute Topmodell um in Standardauflösung zu zocken. :rolleyes:

Ich hab ne 780 und spiel in normaler HD auflösung, weil ich wie Kev2one schon sagte, einen 144 Hz Monitor besitze den ich auch gerne so nutzen möchte.
 
Herdware schrieb:
Das sehe ich komplett anders und auch Nvidia selbst hat offiziell bestätigt, dass sie bei Tahiti mit wesentlich mehr Leistung gerechnet hätten.
....
Dafür spricht auch die Benennung der GPUs, deren technsiche Daten (GK104 ist in jeder Hinsicht eine klassische Performance-GPU, kein High-End) und auch die Erscheinungstermine usw.

Perfekter Marketing-Aktion, den Mythos schaffen von: "Seht her: Unser "Performance Chip" reicht aus um High End von der Konkurrenz zu schlagen"

Schau dir mal die techn. Details an. AMD haut ~40% mehr GFLOPS von Generation zu Generation oben drauf.
Nvidia hat beim GF116 zum GK106 genau das selbe gemacht ~40% mehr GFLOPS, also ganz normal wie AMD.
Beim GF114 zum GK104 haut man aber plötzlich ~144% mehr GFLOPS drauf. So einen krassen unterschied macht man nur wenn man von Anfang an geplant hat den "Performance Chip" als High-End zu bringen.

Und natürlich erzählt man offiziell das Gegenteil, das nenn man schlicht Marketing!

Es war klar das AMD einen CHip <400mm² bringt, genauso klar ist es dass AMD bei Pirates Islands wieder einen Chip <400mm² bringen wird. Da braucht man seitens von Nvidia nicht ein >500mm² um den zu schlagen.



Hoot schrieb:
Trotzdem hat AMD den bisherigen Leaks zufolge Probleme den Stromverbrauch niedrig zu halten - 400W sind (sofern Realität) einfach pervers und weit weg von "weniger"...

Wenn man den Leak nimmt dann hat man die Effizienz im Vergleich zur 280X um min. 15% gesteigert.
 
Falcon schrieb:
Man konnte die Battlefield 4 Limited Edition vorbestellen. Was genau an "Limited Edition" verstehst Du nicht!?

Also ich würde es ihm ja einfacher machen u das Ganze eher "Nicht genug Chips Edition" schimpfen

Dann wüsste jeder das diese "Limited Edition" nämlich der übliche Papiertiger ist wie jedes Jahr

Aber das Marketing hat schon recht Limited klingt bei den Noobs natürlich besser wie out of order:)
 
Zuletzt bearbeitet:
Matzegr schrieb:
Perfekter Marketing-Aktion, den Mythos schaffen von: "Seht her: Unser "Performance Chip" reicht aus um High End von der Konkurrenz zu schlagen"

Das wäre wie gesagt ein unglaublich riskantes Glücksspiel gewesen, nur um später diesen angeblichen lauen PR-Gag abziehen zu können.

Schau dir einfach die technischen Daten von Tahiti und GK104 an. Tahiti ist die in jeder Hinsicht (auf dem Papier) überlegene GPU. Nvidia konnte einfach nicht langfristig vorher wissen, dass der kleinere GK104 ausreicht, um den zu kontern. Sie haben in den vergangenen Generationen ja auch immer größere, auf dem Papier stark überlegene GPUs gebraucht, um AMD auszukontern.
Es wäre völlig unverantwortlich gewesen, so ein Risiko einzugehen. Stell dir vor, Tahiti wäre nur 10% stärker ausgefallen und GK104 10% schwächer. Wie hätte Nvidia dann dagestanden? Was hätten sie dann ein Jahr lang als High-End verkauft?

Nein. Ich bleibe dabei, es war ursprünglich ein GK100 geplant (für Ende 2011) und GK104, wie der Name und jedes einzelne technische Detail belegen, als GPU für Performance-Karten (die wie üblich einige Zeit nach den High-End-Modellen auf den Markt kommen).
Klar wäre die Kepler-Generation damit ein ungewöhnlich starker Fortschritt gewesen, aber kein Rekord. Nichts, was es nicht schon gegeben hätte. G80 z.B. war ein größerer Sprung.
Zumal GK100 sicher etwas schwächer gewesen wäre, als GK110. Mehr deaktivierte Einheiten, schlechtere Effizienz usw. Vielleicht in dem Verhältnis wie GF100 zu GF110.
 
Nvidia hat einfach nur das Released was notwendig war um das Verkaufslevel zu halten wie jede andere Firma das auch getan hätte da bildet AMD keine Ausnahme

Auf der GPGPU Seite(Oak Ridge) war die Nachfrage/Absatz u Gewinn nach einem großen GK110 da u da wurde er auch in Massen ausgeliefert

http://www.hpcwire.com/hpcwire/2012...h_of_kepler_gpus_for_titan_supercomputer.html

Letztendlich hat sich diese Strategie ja vorzüglich in den Quartalszahlen nieder geschlagen
 
Zuletzt bearbeitet:
marcelino1703 schrieb:
Nicht schlecht der Specht. Aber Bioshock sagt nicht viel aus. Es ist ein Spiel von vielen und somit nicht wirklich aussagekräftig. Trotzdem schön zu sehen, dass sie der Titan ordentlich Feuer unterm Hintern machen kann. Das Finale wird sehr heiß. :king:

Das finde ich auch das es noch spannend wird, aber wie wir ja wissen ist AMD sowieso in hohen Auflösungen etwas besser als die Konkurrenzkarten von Nvidia zudem scheinen bei Bioshock die AMD Karten sowieso besser abzuschneiden als die von Nvidia https://www.computerbase.de/artikel...test.2257/seite-7#bioshock-infinite-1920-1080

Von daher würde ich auch sagen das es noch nichts aussagt und erst die Finalen Tests wirklich spannend werden.
 
290x-4k-performance-645x233.jpg

geräuscharm - quiet mode

http://www.legitreviews.com/benchmarks-amd-radeon-r9-290x-versus-nvidia-geforce-gtx780_126653

Die Werte gehen wohl noch besser,
nur die haben wohl den "Flüster-Mode" eingelegt was auch immer das heisst,
darum wohl auch die hohen Temperaturen von >95C° , dann kann man das wohl auch besser verstehen.

Auf jedenfall wird es für AMD Verhältnisse eine gute Grafikkarte,
das es Nvidia vielleicht in 3-6 Monate wieder besser macht ist mal dahingestellt.
 
Iscaran schrieb:
Sonst müsste man nämlich 20 Titans benchen - alle im selben parcour und aus dem erhaltenen Mittelwert auf die Performance schliessen was auch totaler Quatsch ist.

Nö. Falls es dir noch nicht aufgefallen ist, genau das will ich ja, nämlich das die Produkte mit der "ab Werk" Leistung gebencht werden! Und im Falle der Titan müssten dann Benches mit dem Minimum und Maximalboosttakt der ab Werk geliefert wird, gemacht werden!oder wenigstens mit dem Median aus max und min.
Und da kannst Du dich Streuben wie Du willst, die belaufen sich nun mal auf 876~1006Mhz und eben nicht nur auf die 876Mhz.
Bitte nicht falsch verstehen. Ich will nur das objektiv und Realwert Tests gemacht werden und eben nicht nur diese Halbwahrheiten verbreitet bzw. publiziert werden.
Bei den CPU Tests werden die Chips bei gleichem takt getestet um z.B. die pro Mhz Leistung im vergleich zu z.B. Vorgängerarchitekturen oder Konkurenzchips festzustellen.
 
Bin echt gespannt was AMD mit der R9 290X auf den Markt wirft.
Ich habe mir die 7970 "damals" gleich zu beginn gekauft - April 2012 war das.

Ein für die Grafikkartensparte ungewöhnlich langer Zeitraum. Ich hoffe, dass in der Zwischenzeit einiges passiert ist und wir nicht enttäuscht sein müssen.
 
Nö. Falls es dir noch nicht aufgefallen ist, genau das will ich ja, nämlich das die Produkte mit der "ab Werk" Leistung gebencht werden! Und im Falle der Titan müssten dann Benches mit dem Minimum und Maximalboosttakt der ab Werk geliefert wird, gemacht werden!oder wenigstens mit dem Median aus max und min.

Hast du überhaupt gelesen WIE HT4U benched ?

http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index8.php
"Schlussendlich zeigt sich an diesem Punkt, wie Titan arbeiten könnte, NVIDIA es aber nicht von Hause aus erlaubt."

Du willst doch die Karten testen wie sie "ab Werk" kommen oder nicht ?

Das heisst aber eben auch: "Wie von NVIDIA versprochen, steigert sich durch die automatische Spannungszugabe nun auch der maximale Boost-Takt der Karte und zwar von 993 MHz auf 1032 MHz. Unsere vorstehend gezeichneten Diagramme – abermals auf Basis Anno 2070 als Applikation – zeigen jedoch, dass der hohe Takt nur von kurzer Freude ist. In weniger als einer Minute fällt die Titan hier auf 993 MHz zurück, nach etwas mehr als einer Minute auf 888 MHz und nach zirka 2 Minuten auf 836 MHz."

Und weiter:
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index9.php
"In der hier gezeigten Gegenüberstellung muss man klar erkennen, dass eine Titan-Grafikkarte in solcher Konstellation kaum noch über ihren Grundtakt von 836 MHz hinauskommt. Der Boost verpufft praktisch."

Jede weitere Diskussion ist somit nämlich hinfällig. Wie gesagt ich rede hier von "testen ab Werk" in einem "werksüblichen Gehäuse" - alles andere ist Testen von Max OC. das sollte man dann aber bitte auch mit BEIDEN seiten machen. Nicht Titan@Max OC vs. HD 7970 stock....

Zu guter Letzt noch:
"Die in Bioshock gewählte Spielsequenz zeigt uns eine vorangehend, lastfreie Sequenz, vermutlich ein Ladebildschirm zwischen zwei Leveln. Die kurze Ruhephase reicht der Titan allerdings nicht aus. Die folgenden 30 Sekunden Last drücken auf das Temperature Target und aus den 993 MHz werden im Anschluss 836 MHz, welcher noch ein Weilchen beibehalten bleibt.

Die gezeigte Sequenz in Crysis 3 vermittelt uns anhand der schwankenden Frameraten ein wechselndes Spielgeschehen, mit unterschiedlichen optischen Ereignissen. Die GPU arbeitet komplett mit lediglich 836 MHz im gezeigten Zeitraum, die GPU-Temperatur von 80 °C versucht der Lüfter mit Drehzahlen um 2350 RPM konstant zu halten.

Tomb Raider ist nicht ausschließlich und immer GPU-lastig, sondern beinhaltet auch einige Spielszenen, in welcher die Last in Richtung CPU verlagert wird. In diesen Situationen erblickten wir dann immer wieder einmal Temperaturen von 78 oder 79 °C, eine etwas fallende Lüfterdrehzahl und 993 MHz GPU-Takt. Sobald die Anforderungen an die GPU-Auslastung steigen, muss die ohnehin schon erwärmte Grafikkarte kurzfristig reagieren. Auch hier sind die 993 MHz nur von absolut kurzer Dauer und in weniger als 60 Sekunden bleiben dem Anwender nur noch 836 MHz Takt.

All das lässt natürlich die GPU-Boost-Funktion in einem schlechten Licht dastehen, denn was nutzen dem Anwender 993 MHz Takt, wenn die Spielszenen diesen Takt aktuell nicht benötigen. Dort wo dann die Leistung eingefordert wird, dort hält Titan dann nicht mehr was NVIDIA suggeriert und dümpelt mit 836 MHz vor sich hin. Dem Anwender bleiben Eingriffsmöglichkeiten: über Tools kann er die Limits erhöhen, damit bewegt er sich allerdings im Bereich des Tweaking – er betreibt die Grafikkarte außerhalb der vorgesehenen Spezifikation und damit wohl auch außerhalb der Garantie."

Sorry für die vielen Edits.

Nachtrag:
Bitte nicht falsch verstehen. Ich will nur das objektiv und Realwert Tests gemacht werden und eben nicht nur diese Halbwahrheiten verbreitet bzw. publiziert werden.

Ich auch.
 
Zuletzt bearbeitet:
Schade das immer nur die R9 290X gezeigt wird, interessant wäre doch auch mal die normale R9 290.

Momentan will ich nix mehr glauben bevor Test Seitens CB und HWX gezeigt werden.
Irgendwie hab ich das Gefühl das Wir am Montag mehr Wissen werden, k.A. warum. Schauen wir mal.
 
Iscaran schrieb:
Jede weitere Diskussion ist somit nämlich hinfällig. Wie gesagt ich rede hier von "testen ab Werk" in einem "werksüblichen Gehäuse" - alles andere ist Testen von Max OC. das sollte man dann aber bitte auch mit BEIDEN seiten machen. Nicht Titan@Max OC vs. HD 7970 stock....

Wenn HT4U eine Karte mit schlechtem ASIC hat und diese dadurch schnell ins PT rennt und somit anfängt zu thotteln, kann ich auch nichts daran Ändern. Nichts desto trotz gibt es diverse Karte die bei einem ASIC von >80%+ dauerhaft auf 1006Mhz laufen ohne zu throtteln.
Daher rede ich ja davon das man einen Median ziehen muss um reale Werte zu erziehlen und nicht einfach den niedrigsten.
Meine z.B. läuft ohne Spannungserhöhung bzw. PT zu ändern auch auf 993Mhz stabil im Default Design.

Und noch einmal: " Bei den CPU Tests werden die Chips bei gleichem takt getestet um z.B. die pro Mhz Leistung im vergleich zu z.B. Vorgängerarchitekturen oder Konkurenzchips festzustellen."
Auch wenn nur wenigstens ein Zusatz mit diesem Test erfolgt und eben nicht nur ein Augenwischertest.
 
Brainorg schrieb:
Meine z.B. läuft ohne Spannungserhöhung bzw. PT zu ändern auch auf 993Mhz stabil im Default Design.

Ich habe ne GTX780 Super Jetstream und nen ASIC Wert von 86,2%. Out of the box taktet der Boost mit 1150MHz und die Karte hängt dann bei 78°.
Weiter OC geht bis ~1280MHz, allerdings fangen dann leichte Bildfehler an. 1250MHz läuft. Diese 100MHz mehr bringen nicht mal 3fps.

Spielt es also so die große Rolle, ob ne TITAN nun mit 876MHz läuft oder mit ~1000MHz?
 
Jede karte ist anders, deshalb kann man nicht davon ausgehen, dass die Karte den Takt von *** halten kann. Daher vergleicht man auch Stock vs Stock, also Leistung ohne irgendwelche Änderung; und dann auch noch verschiedene Test miteinander vergleichen. Das macht z.B. 3DCenter.

Der Benutzer kann die Karte, wenn er will, übertakten, um mehr Leistung zu bekommen. Letztendlich entscheidet der Benutzer was er braucht und wie viel Geld er ausgeben will.
 
Zurück
Oben