News AMD torpediert Nvidia mit Benchmarks zur R9 290X

grenn schrieb:
... zudem scheinen bei Bioshock die AMD Karten sowieso besser abzuschneiden als die von Nvidia

ht4u hatte gestern durch ein Missverständnis alle AMD eigenen Ergebnisse online und nicht nur die von Bioshock, wie jetzt. Dort lag der Mittelwert über alle enthaltenen Spiele bei >20 Prozent. Damit dürfte Bioshock mit +17% nicht wirklich AMD freundlicher sein.
 
ich versteh dich echt nicht:

...genau das will ich ja, nämlich das die Produkte mit der "ab Werk" Leistung gebencht werden!

GENAU das macht HT4U - aber auch als einzige Seite mal mit nem Review der die "Turbo" Leistung mal länger betrachtet als nur paar sekunden.

Wenn HT4U eine Karte mit schlechtem ASIC hat und diese dadurch schnell ins PT rennt und somit anfängt zu thotteln, kann ich auch nichts daran Ändern. Nichts desto trotz gibt es diverse Karte die bei einem ASIC von >80%+ dauerhaft auf 1006Mhz laufen ohne zu throtteln.
Daher rede ich ja davon das man einen Median ziehen muss um reale Werte zu erziehlen und nicht einfach den niedrigsten.

Ja jede Karte ist anders - und das ist Zufall. Willst du also 20 Titan bestellen und dir dann die "beste" aussuchen ? Keiner bezweifelt dass man Titans z.T. gut takten kann. Oder sollen die Reviewer wie ichs geschrieben hab 20 Titans bestellen um diese dann JE spiel 30min lang laufen zu lassen um REALE MEDIAN Werte zu ermitteln ?

Völliger Quatsch.
nVidia spezifiziert die Karte mit garantierten 836MHz und "optionalem" Boost bis zu.... sowie der Angabe dass eine "mittlerer Effektiver" Boost von 876MHz erreicht werden können sollte.
HT4U hat gemessen und 875MHz als "effektiven" Average Boost ermittelt...WAS ALSO SOLL AN DER MESSUNG mit 875MHz Takt nun verfälschen ???

Das 0.01 % der Titans auch mit 1200 MHz laufen ???
Genauso laufen auch 0.01 % der HD79xx mit 1.5GHz....
Nur was ist dann an solchen Werten "vergleichbar" ?
 
Finde das langsam so extrem nervig mit den angeblich "echten" Benchmarks überall. Die sollen das Teil endlich veröffentlichen. Ist ja schon schlimm genug, dass die Pre-Order Aktion am 3. nicht richtig angelaufen ist.

Sehe das natürlich nur so genervt, weil mich Benchmarks interessieren und nicht weil hier (bis auf die GraKa) neue Hardware für einen Rechner liegt den ich endlich fertig machen will. :D

Verdammt ich halte das kaum noch aus... die GTX 780 wird jeden Tag verlockender. :p
 
Was die Leute hier wieder rumzettern, herrlich. Erstmal die ganzen! umfangreichen! Tests abwarten. Wenn die 290x schneller als eine Titan ist, super für AMD. Wenn sie langsamer als eine Titan ist und/oder gleich einer gtx780, super für NV. Von den Preisenverwerfungen für uns Kunden ganz zu schweigen.

Ist ja hier teilweise wie bei Opel vs. VW. Tststs...
 
Ja, die Show die einem hier geboten wird ist besser als so mancher Kinobesuch^^

Aber mal ehrlich: Auch wenn ich mir ein starkes AMD (sowohl im CPU- als auch GPU-Bereich) sehr gefällt, und sei es nur aufgrund von Preissenkungen, ist doch das was die im Moment mit den neuen Karten abziehen doch schon langsam peinlich.
Erst das groß angekündigte Event in denen die GraKas nur am Rande erwähnt wurden, dann der Release der kleineren Karten die (wie bei NV) nur umgelabelte und anders getaktete Vorgängerkarten sind. Außerdem hat man da die Aussage "Die nächsten Kühler werden besser" nur für die 280x untermauern können - weil es da wohl kein Refdesign in den Handel schaffen wird.

Jetzt hält NV ein Event ab und AMD mimt das Kindergartenkind das "das kann ich aber viel besser!" brüllt um irgendwie an Aufmerksamkeit zu kommen.
Allgemein hat AMD in den letzten Jahren (vl auch davor, da kann ich aber keine qualifizierte Aussage zu machen) ein Marketing an den Tag gelegt was doch einfach nur peinlich ist.
Entsprechend halte ich von der offiziellen Aussage auch erstmal nichts. Solange keine Neutralen Tests über mehrere Games draussen sind, ist mir egal wie lang die Balken sind. Das ganze ist doch nichts neues und wird seit Jahren so gemacht.

Ich vermute mal dass man wohl eine 780 schlagen wird (alles andere wäre aber auch peinlich), aber alles andere halte ich atm für zu spekulativ.

Zu dem hier gern angeführten Vergleich mit der Titan:
Es sollte allgemein hin bekannt sein dass NV die Titan zu Gunsten einer hohen Effizienz eine Handbremse in Form eines Temptargets angelegt hat. Für die meisten User sollte aber auch die angekettete Titan noch genug Leistung bringen - dabei verbraucht sie wenigstens relativ wenig.
Wer nun die Maximale Leistung haben will muss natürlich die Handbremse lösen. Dann lässt die Titan zwar ordentlich die Muskeln spielen, mit der guten Effizienz ist es dann aber auch vorbei. Dies ist aber auch eine Form von OC, wenn auch nicht im klassischen Sinne. Somit halte ich den Vergleich mit einer Stock-Titan (sprich mit angelegter Handbremse), durchaus angebracht. Ob eine 290X diese dann schlagen kann? Wir werden sehen. Irgendwann traut sich AMD vl. mal die Karten zu releasen anstatt immer nur anzubringen wie toll die sind.
 
AMD hat bei seinem R9 290X gegen GTX780 vergleich die R9 290X im Silent Mode bei 95 Grad demonstriert. Also langsamer Lüfter aber dafür hohe Temperaturen. Klar, man wollte ein leise Karte zeigen, was ja auch ok ist. Um das zu erreichen wurde an der Lüfterkuve der R9 290X geschraubt.
Bei nVidida ist das genauso mit Boost 2.0. Meine GTX770 hat von Werk ein Limit von 79 Grad, wobei der Lüfter aber nur 60% läuft. Ich kann aber jederzeit das Limit auf 85 Grad stellen oder meine Lüfterkurve so verändern, dass der Boost bei 79 Grad an bleibt, weil der Lüfter schneller dreht. Die GPU ist dann lauter aber schneller.
Verstehe nicht, warum AMD sich die Temperaturen und Lautstärke der Karte so einstellen darf wie Sie wollen aber man bei nVidia auf den Stock Zustand besteht?
 
Guter Punkt - wobei "Silent" ja eigentlich leiser und dafür wärmer (evtl. auch langsamer) nahelegt. Aber bei AMD würde es mich mittlerweile nicht wundern wenn Silent wirklich nur bedeutet dass eine Handbreme entfernt wurde.
 
Hoot schrieb:
@matzegr:
Aber bei Maxwell ist noch nicht mal sicher, ob er wirklich in 20nm kommt oder doch irgendwas in 28nm kommt - Sinn macht es natürlich nicht.
Die Gerüchte sind hier aber noch recht wage.
Welche Gerüchte?
Bis jetzt hat man noch garnichts gehört.
Und so einfach ist es für Nvidia eben nicht, mal so eine Next-Gen in alter Fertigung zu bringen.
Sie können höchstens eine GM104 in 28nm statt 20nm zu bringen.
Falls dann aber eine SMX von Maxwell "nur" 384 Shader (= doppelte wie SMX-Kepler, so wie Quasi der SMX das doppelte vom GF104-SM war), hätte so ein GM104 auch "nur" 3072 Shader und somit gerade mal nur 6% mehr Shader als ein GK110.

Aber wie schon gesagt. Nvidia dürfte mit AMDs Hawaii @ 20nm-Schritt ziemlich überrascht worden sein.

Trotzdem hat AMD den bisherigen Leaks zufolge Probleme den Stromverbrauch niedrig zu halten - 400W sind (sofern Realität) einfach pervers und weit weg von "weniger"...
Dass man einen großen Chip langsamer Takten lassen kann, ist auch klar - nVidia wird bei einer hoher gestakteten Titan auch einen Verbrauchsanstieg haben - dann liegt sie auf 290X Niveau. Aber einen großen 290X mit hohem Takt würde dann noch mehr brauchen, was schlimm wäre im Rahmen von green it ...
Man sollte vielleicht doch mal die Test abwarten, weil aussagen können schon mal übertrieben dargestellt werden.

----

Ich finde den Thread ziemlich Lustig.
Früher jammerten viele "Wenn AMD eine Bomben-Karte hätte, würden sie die Konkurrenz mit Benchmarks bombadieren".
Und dann passiert einmal sowas und dann beginnen die selben Leute ebenfalls über viele seiten zu jammern und suchen sich neue Erbsen.
 
Ich freue mich immer über Konkurrenz, denn das drückt für Gewöhnlich immer die Preise. Ich weiß dass das aus meinem Munde ein wenig komisch klingt - doch ich habe kein Problem damit wenn spätere Generationen nicht mehr 4-stellig kosten und würde mich darüber ganz und gar nicht beschweren^^

Wie gesagt, Schlüsse können wir erst ziehen wenn das NDA endlich mal gefallen ist. Ansonsten gehen hier noch Leute aufeinander los, wegen Infos die noch nicht mal Neutral sind.
 
Das sehe ich ähnlich. Mir ist letztendlich auch egal, ob die 290 x besser oder schlechter als die Titan oder die 780 Gtx ist. Mir ging es nur um die Temperatur und den Verbrauch, welche die Karte zwar nicht schlechter aber für mich persönlich unattraktiver macht. Aber ein leistungstechnisches Gleichgewicht zwischen den Anbietern bringt nicht nur bessere Preise sondern in der Regel auch eine größere Produktvielfalt in den einzelnen Leistungsklassen.
Auch wenn ich Besitzer einer 780 Gtx wäre, würde es mich nicht stören, wenn Amd mit der 290x daran vorbei zieht. Das ist eben so bzw. sollte so sein, dass neuere Produkte einen Vorteil gegenüber älteren haben. Das macht die 780 Gtx ja zu keiner schlechten Karte bzw. Reicht sie ja noch immer für alles aus.
 
Brainorg schrieb:
Wieso die Titan bei den vergleich Benches immer mit den 876Mhz läuft frage ich mich auch.
Lasst sie doch auch mal mit 1000Mhz laufen

Würden wir ja gerne! Aber die Anzahl der Benches die in 15ms ablaufen ist einfach zu gering :-(
 
Ich habe da mal eine vermutliche top 20 Liste gefunden. Könnte sogar hinkommen , wenn man die anderen alle mittelt ?!

top 20.jpg


Quelle : http://www.gamezone.de/Benchmarks/
 
Klingt für mich aber nicht sonderlich plausibel. Die 280X soll trotz gleichem Chip und höheren Takt langsamer sein als die 7970 (non-Ghz) und dass zwischen 290 und 290X nur 4% liegen halte ich ebenfalls für sehr unwahrscheinlich.
 
Was sind schon stinknormale Frames, wenn Nvidia gerade den Markt revolutioniert. Da kann AMD noch 40+ Frames mehr haben.

Ich denke G-Sync-Monitore und Nvidia-Karten ab GTX650+ werden für Gamer demnächst zur Pflicht.
--> Kein Tearing, Ruckeln und langsame Reaktionszeiten mehr ... das ist einfach ein Traum! Dafür gebe ich gerne Geld aus!

G-Sync Demo:
http://www.youtube.com/watch?v=Lg5TAUrtXxo



Dazu noch das neue Capture-Feature:

Shadowplay (PC):
http://www.youtube.com/watch?v=Lyy3ZijLJ0s

Wenn man Nvidia G-Sync + Shadowplay (Streaming via Grafikkarte) als neue Megafeatures sieht, läuft einem als Hardwareenthusiast das Wasser im Mund zusammen. Das sind Funktionen, von denen man als Gamer wirklich profitiert!




-
 
Auf den ersten Blick hört sich G-Sync gut an, dann liest man sich ein und stellt fest das man neben einem neuen Monitor auch noch mit Einschränkungen leben darf.
Nur über Display Port, und dann darüber kein Sound mehr, HDMI und DVI funktionieren nicht mehr.
Billig wird das nicht, auch die angeblichen G-Synchronisation Module zum selber nachrüsten werden vermutlich nicht mit jedem Monitor kompatibel sein.

Was bleibt ist erstmal eine gewisse Ernüchterung anstatt einem Wow Effekt
 
@ Thanok
und dass zwischen 290 und 290X nur 4% liegen halte ich ebenfalls für sehr unwahrscheinlich
überhaupt nicht - erinnere Dich bitte an unsere 6950 mit dem Shaderflash auf 6970 - das brachte 3-5% Mehrleistung, wir haben schließlich hier genug darüber geschrieben!
Wenn jetzt die 290 und 290X auch nur wieder die Anzahl der Shader plus 50 MHz im Takt (mit Turbo) den Unterschied machen, ist der Leistungsunterschied sogar sehr gut möglich!
Was aber noch wichtiger ist, es wäre sogar als Fortsetzung der AMD-Strategie zu werten.......
 
Zuletzt bearbeitet:
Willl jetzt Nvidia jedem Monitorhersteller ein PhysX-Chip aahhhhh G-Punkt Chip verkaufen und einbauen?
Setzt der Chip dann natürlich nur Nvidia-Grafikkarten vorraus?!!
 
Zuletzt bearbeitet:
Lars_SHG schrieb:
@ Thanok
überhaupt nicht - erinnere Dich bitte an unsere 6950 mit dem Shaderflash auf 6970 - das brachte 3-5% Mehrleistung, wir haben schließlich hier genug darüber geschrieben!

Ja, ich habe meine 6950 damals auch geflasht. Allerdings hat die 6970 ja auch noch mehr Takt gehabt, wodurch die ~10%
Mehrleistung komplettiert wurden.
Nur nachdem was man bisher so weißt, hat die 290X allein schon 10% Mehr Shader, außerdem ist ihr Turbo minimal schneller. Wobei der Turbo natürlich kein stichfestes Argument ist solange man nicht weiß wie aggressiv er agiert, bzw. wie hoch die jeweiligen Power Targets werden.
Ferner würde sich AMD doch keinen Gefallen tun wenn die kleinere Karte nur 4% langsamer ist als die große - denn so würde sich wohl kaum einer für die 290x interessieren.

@Kartenlehrling:
Soweit ich gelesen habe wird es Monitore geben die G-Sync von Haus aus unterstützen, sowie ein Umrüstkit. Allerdings wird dazu eine NV Grafikkarte benötigt.
Nur im Gegensatz zu PhysiX wird G-Sync bei allen Anwendungen funktionieren und soll natürlich wieder mal das beste Feature aller Zeiten sein - Marketinggeblubber wie man es kennt. Allerdings klingt das ganze durchaus Vielversprechend und ist vor allem spürbar anstatt bloß optisches Bling-Bling.
 
Zuletzt bearbeitet:
Thanok schrieb:
Allerdings klingt das ganze durchaus Vielversprechend und ist vor allem spürbar anstatt bloß optisches Bling-Bling.

Zudem versucht man sich nicht abseits des primären Einsatzgebietes als "Soundspezi" zu verdingen,sondern setzt bei Featuren an die einer Grafikkarte auch in erster Linie weiterhelfen in ihrem Arbeitsumfeld

Naja spätestens nächste Generation hällt sowas per copy/paste auch wieder Einzug in deren Grafikkarte sowie die Boost Technologie

"Wer hats erfunden"
 
Zuletzt bearbeitet:
Zurück
Oben