News Benchmarks von AMDs Radeon HD 7990 aufgetaucht

009393884 schrieb:
(...)
Die ersten Tests werden jenseits von Microrucklern liegen und die 690 definitiv schlagen.
Und das ist... gut?
Abgesehen davon, die Karte wird nicht in jedem Szenario konstant 60 fps liefern können - und damit ggf. in den Bereich abrutschen, in dem der eine oder andere bereits Mikroruckler sieht. Und wenn ich 30 fps bei einer single-Karte, aber fast 60 fps bei einer dual-Karte brauch damit es flüssig rüberkommt, dann kann ich mir die Mehrkosten auch sparen.

Chris_S04 schrieb:
(...)
Was den Verbrauch angeht bin ich mal gespannt. Habe mal einen Vergleichtest zwischen der 690 und den Custom-7990 gesehen. Die Radeons waren zwar schneller aber deutlich lauter und haben deutlich mehr Strom verballert. Würde mich interessieren wie AMD das gepackt hat, dass zwei 8-Pins ausreichen.
Vermutlich selektierte Chips. AMD sitzt an der Quelle, wenn sie wollten dann konnten sie seit einiger Zeit die ganzen superguten GPUs, die auch mit deutlich weniger Spannung laufen, abgreifen und lagern. Und genau die kommen jetzt auf ihre eigene 7990 während die Custom-Lösungen mit 1.2 V GPUs klarkommen müssen ;) Aber das ist nur eine Vermutung.
 
CD schrieb:
[...]
Vermutlich selektierte Chips. AMD sitzt an der Quelle, wenn sie wollten dann konnten sie seit einiger Zeit die ganzen superguten GPUs, die auch mit deutlich weniger Spannung laufen, abgreifen und lagern. Und genau die kommen jetzt auf ihre eigene 7990 während die Custom-Lösungen mit 1.2 V GPUs klarkommen müssen ;) Aber das ist nur eine Vermutung.

Jop, klingt einleuchtend, was du da sagst. ;)
Schon "ein paar" mV weniger können da einen beachtlichen Unterschied im Stromverbrauch ausmachen. Außerdem könnte es sein, dass die Chips dann leichter zu kühlen sind und kühlere Leitungen haben einen geringeren elektrischen Widerstand, was auch einen geringeren Verbrauch zur Folge hat.
 
Warten. Ein Test spricht mit Sicherheit wieder mehr als irgendwelche Gerüchte. @CD, damit wirst du irgendwo sicherlich Recht haben, diesen Faktor hatte ich eigentlich auch übersehen , man kann ja einige diverse Karten undervolten, und selbst das brachte schon was.

Bin selber gespannt auf das AMD Brett ;)
 
Matzegr schrieb:
Was erwartest du von einem Grafikchip der nen viertel Jahr vor der ersten Kepler-Karte auf dem Markt war?
Wir reden hier von zwei normalen Tahiti Chips die man auf ein PCB geklatscht hat. Custom-Designs der 7990 gibt es schon Monate lang.

Es geht nicht um irgendeine interne Reihenfolge aus dem eigenen Haus, sondern um den Vergleich zur Konkurrenz! Ich hatte nur bemerkt, wieviel früher die GTX690 auf dem Markt war und dennoch der kommenden HD7990 in vielen Disziplinen paroli bieten wird.

Nein, es ist keine Frage ob die HD7990 "besser wird"... sie muss es, weil AMD fast ein Jahr zeit hatte, alles anzupassen! Wenn sie jetzt nur ein paar Frames besser würde, wäre das eine Blamage!

Außerdem sind die Custom-Designs alles andere als gelungen! Stell dir einmal vor eine Dual-Titan als z.B. ARES III käme auf den Markt. Du könntest echt zwei dieser Monsterchips auf das PCB pflanzen und hättest immer noch weniger / gleichviel Stromverbrauch als die von dir angesprochenen Custom-Pre-HD7990. Bei einer enormen Mehrleistung versteht sich natürlich!

AMD hatte die Zeit genutzt um die Karte zu normalisieren, was für mich eher einem Kraftakt (vergleiche mit Nvidia Fermi) gleichkommt.


Matzegr schrieb:
Zum Thema Stromverbrauch. Selbst wenn man die 375W ausreizen würde, wären die 2 TFLOPS DP Leistung ziemlich effizient.

EDIT: (mein Text)
HIER STAND MÜLL
---- sorry an Matzegr an dieser Stelle



Dwyane schrieb:
Ich bezweifle mal das AMD was an der Mikrorucklerproblematik gemacht hat. Es wird jetzt nur halt ne Dual GPU rausgehauen weil man sonst nix neues zu bieten hat. Die haben sich an den ganzen bisherigen Kritiken ( der letzten Jahre!!! ) nicht gestört, warum also jetzt gegen MR vorgehen?

Ähnlich sehe ich das auch! Mich hat schon längere Zeit gewundert, wieso AMD so wenig gegen MR unternimmt.

Bestenfalls halbherzige Versuche die Probleme über Software in den Griff zu bekommen. Ich halte dies für schwer möglich ohne Nachteile. Ein Hardwareproblem sollte auch mit einer Hardwarelösung bekämpft werden. Ansonsten operiert man nur an den Symptomen.


Chris_S04 schrieb:
Jop, klingt einleuchtend, was du da sagst. ;)
Schon "ein paar" mV weniger können da einen beachtlichen Unterschied im Stromverbrauch ausmachen. Außerdem könnte es sein, dass die Chips dann leichter zu kühlen sind und kühlere Leitungen haben einen geringeren elektrischen Widerstand, was auch einen geringeren Verbrauch zur Folge hat.

Man darf hierdurch aber keine Wunder erwarten! Bestenfalls holen sie die Stromversorgung von 3x 8pin auf 2x 8pin herunter. Das meiste davon ist aber möglicherweise nur für OC ausgelegt.

Von der Kühlung her sollte es ein paar Grad bringen. Jedoch hat die Hd7990 immer noch 3 Lüfter nötig(!). Von kühl kann hier keine Rede sein!
 
Zuletzt bearbeitet:
Von der Kühlung her sollte es ein paar Grad bringen. Jedoch hat die Hd7990 immer noch 3 Lüfter nötig(!). Von kühl kann hier keine Rede sein

Das musst du mir jetzt mal erklären. Woher weißt du denn jetzt schon wie gut oder wie schlecht der Kühler kühlen wird? Du hast aber eine echt gute Glaskugel.
 
die karte könnte sogar ganz gut für btc mining geeignet sein.. 1,2 Ghash/s bei 375 watt.. wenn da nicht die asic miner wären. :rolleyes:
 
Hardware_Hoshi schrieb:
AMD hatte die Zeit genutzt um die Karte zu normalisieren, was für mich eher einem Kraftakt (vergleiche mit Nvidia Fermi) gleichkommt.

Da ist überhaupt kein Kraftakt dahinter, die gleiche Karte hätte man schon viel früher bringen können. Es gibt auch schon seit Monaten normale 7970 mit geringeren Spannungen und damit deutlich geringeren Verbräuchen als damals als die ganzen Tests erschienen. Die Fertigung wird mit der Zeit besser und so kann man mit der Spannung runtergehen. Rat mal warum die Titan bzw. die Tesla K20(X) erst so spät kamen. Wenn man gewollt hätte, hätte man die auch gleich zusammen mit der GTX 680 auf den Markt schmeißen können, da hätte man aber einen deutlich höheren Verbrauch in Kauf nehmen müssen.

Warum kommt die offizielle HD 7990 erst jetzt? Ganz einfach, reine Marketingaktion. Da man die alte Generation bis Ende 2013 laufen läßt muß man mal mitten im Jahr was "Neues" bringen, da bot sich die HD7990 an. Mit solchen Karten wird kaum Geld verdient, da der Absatz viel zu gering ist.

Hardware_Hoshi schrieb:
Was redest du denn für einen Unsinn? Selbst die "Devil 13" hat
  • 2.7 TFLOPs Single Precision compute power
  • 683 GFLOPs Double Precision compute power

Quelle:

http://www.powercolor.com/de/products_features.asp?id=380

Die offizielle HD6990 dürfte sich jetzt bis auf Kleinigkeiten nicht großartig unterscheiden.
Erzähle hier also bitte keine Märchen!




Na herzlichen Glückwunsch!

Ich sprach von einer HD7990 und meine Daten stammen aus der News!
Du kommst mit einem Link von einer HD6970 an? :rolleyes:
 
The_addi schrieb:
Das musst du mir jetzt mal erklären. Woher weißt du denn jetzt schon wie gut oder wie schlecht der Kühler kühlen wird? Du hast aber eine echt gute Glaskugel.

Dazu brauch ich keine Glaskugel, denn AMD hat schon seit Generationen miserable (=laute) Kühler im Referenzdesign. Kein Mensch bei Verstand kann sich das reinziehen. Daher musste man bisher immer die Custom-Designs nehmen. Die HD7990 wird hier wohl eine Ausnahme, weil die vertriebenen Customs noch schlimmer sind.


Matzegr schrieb:
Da ist überhaupt kein Kraftakt dahinter, die gleiche Karte hätte man schon viel früher bringen können. Es gibt auch schon seit Monaten normale 7970 mit geringeren Spannungen und damit deutlich geringeren Verbräuchen als damals als die ganzen Tests erschienen. Die Fertigung wird mit der Zeit besser und so kann man mit der Spannung runtergehen.

Die erste Generation von 7970ern war nicht gerade die ausgefeilteste Technik - damit konnte man Dual-Karten noch vergessen. Erst nach vielen Eingriffen seitens AMD mit Revision (Fertigungstechnik), Treiber und anderen Maßnahmen ist die HD7990 erst möglich ohne gleich 3x 8pin draufzuschnallen.


Matzegr schrieb:
Rat mal warum die Titan bzw. die Tesla K20(X) erst so spät kamen. Wenn man gewollt hätte, hätte man die auch gleich zusammen mit der GTX 680 auf den Markt schmeißen können, da hätte man aber einen deutlich höheren Verbrauch in Kauf nehmen müssen.

Tesla und Geforce sind verschiedene Produktkategorien. Der große Gf-GK110 ist ein Monsterchip, der seinesgleichen sucht. Unbestreitbar, dass diese "Kreation" ihresgleichen sucht. Dennoch ist die Karte gut geworden, wenn auch nicht zu unserem Wunschpreis!

Bis heute ist nicht geklärt, ob die Titan eigentlich die GTX680 hätte werden sollen. Wir sollten hier aber nicht in alte Diskussionen verfallen, denn es ist eine Nvdia Marketingaussage!


Matzegr schrieb:
Warum kommt die offizielle HD 7990 erst jetzt? Ganz einfach, reine Marketingaktion. Da man die alte Generation bis Ende 2013 laufen läßt muß man mal mitten im Jahr was "Neues" bringen, da bot sich die HD7990 an. Mit solchen Karten wird kaum Geld verdient, da der Absatz viel zu gering ist.

Marketing ist es sicherlich! Doch ist es eher als Pflicht zu sehen!

Die HD7970 Ghz laufen schon auf Anschlag, da kann man nicht mehr wirklich höher gehen. Zumindest nicht für die Massenproduktion. Die 8000er-Generation wird angeblich sogar auf 2014 verschoben (Gerüchte).

AMD musste die 7990 einfach bringen!



Matzegr schrieb:
Na herzlichen Glückwunsch!

Ich sprach von einer HD7990 und meine Daten stammen aus der News!
Du kommst mit einem Link von einer HD6970 an? :rolleyes:

Ja, dickes Sorry an dieser Stelle. Hab meinen Text 2x verloren (Browserabsturz, dann Update-Neustart) und beim dritten Versuch hab ich mich vergoogelt und die Daten dann blind übernommen.
War mir zwar suspekt, denn die Zahlen hätten auch von 2011 sein können (was sie auch waren).

Wer kennt das nicht, wenn die Technik mal wieder spinnt.

Jedoch muss ich sagen, dass ich den Zahlen in Gerüchten nicht wirklich glauben schenke. Nach mehrmaligem Durchlesen hatte ich keine genauen Angaben über die DP-Leistung gefunden und angenommen, man hätte bei AMD die GPU-Leistung teilweise beschnitten wie es neuerdings in Mode kommt.
 
Zuletzt bearbeitet:
Auffällig wie besch.....eiden die Titan ( kostet fast 1000,- euro!? ) gegen die 690 und 7990 abschneidet die günstiger zu haben sind! Da werden sich die Titan besitzer freuen das ihnen wenigstens als einziges Argument noch ein paar Monate der schnellste single gpu chip erhalten bleibt,bis dann die 700er von nvidia und 8000er von amd kommen. Dann ist die Titan nur noch ein Geldentwerter ;-)
 
Hardware_Hoshi schrieb:
Ja, dickes Sorry an dieser Stelle. Hab meinen Text 2x verloren (Browserabsturz, dann Update-Neustart) und beim dritten Versuch hab ich mich vergoogelt und die Daten dann blind übernommen.
....
Nach mehrmaligem Durchlesen hatte ich keine genauen Angaben über die DP-Leistung gefunden und angenommen, man hätte bei AMD die GPU-Leistung teilweise beschnitten wie es neuerdings in Mode kommt.

Kann ja mal passieren, zur DP Angabe es wird wieder 1/4 der SP Leistung. Es sind ganz normale Tahitis XT Chips verbaut. Die gibt es in min. 4 Versionen.
1,175V
1,125V
1,05V
1,025V

PowerColor wird schätzungsweise 2x die 1,175V Version verbaut haben -> 475W Verbrauch.
Die jetzige AMD 7990 wird sicherlich 2x 1,025V verbaut haben -> min. 100W weniger Verbrauch.

Hardware_Hoshi schrieb:
Marketing ist es sicherlich! Doch ist es eher als Pflicht zu sehen!

Das lange hinauszögern kann auch noch einen Grund haben. Treiberseitige Verbesserung der Mikroruckler Problematik.
Bei den Single GPUs hat man es ja schon so gut wie geschaft die Probleme mit Cat 13.3 zu beseitigen.

Dazu ein Zitat von Ryan Shrout (pcper):

While some people might have assumed that this new testing methodology would paint a prettier picture of NVIDIA’s current GPU lineup across the board (due to its involvement in some tools), with single card configurations nothing much is changing in how we view these comparisons. The Radeon HD 7970 GHz Edition and its 3GB frame buffer is still a faster graphics card than a stock GeForce GTX 680 2GB GPU. In my testing there was only a couple of instances in which the experience on the GTX 680 was faster or smoother than the HD 7970 at 1920x1080, 2560x1440 or even 5760x1080.

Mit Cat. 13.5 will man auch die Problematik bei Crossfire deutlich besser im Griff haben, würde mich nicht wundern wenn der Release der 7990 gleichzeitig mit dem Cat. 13.5 stattfinden wird.

Hardware_Hoshi schrieb:
Die 8000er-Generation wird angeblich sogar auf 2014 verschoben (Gerüchte).

Kommt drauf an was kommt, wenn man keine 28nm Refreshgeneration bringt, dann ist 2014 wahrscheinlich. Gibt es eine 28nm Refreshgeneration wird sie pünktlich zum Weihnachtsgeschäft 2013 im Regal stehen.
 
Selbst wenn ein Refresh kommen sollte (und bisher deutet da nichts drauf hin), mehr als ein paar Prozent Mehrleistung wird der auch nicht bringen ggf. besseres OC-Potential, weil niedrigerer Stromverbrauch, was aber auch nicht für jeden interessant ist.
 
Cruzadar schrieb:
Für 96.100$ versteigert? :freak: Die Leute merken echt nix mehr oder?

Engeneering Samples gibt es in der Regel nur 4 oder 5 Stück und die werden meist nach Serienreife eingestampft oder ein Modell in die eigenen Katakomben gepackt. Von daher haben diese Modelle für einige Leute Sammlerwert.

Ich persönlich wäre z.B. scharf auf ein Engeneering Sample einer 3Dfx Voodoo 5 6000 oder einer 3Dfx Voodoo Rampage.
 
Die Rechenleistung der Karte ist in etwa das unspektakulärste was man untersuchen kann. Für eine grobe Orientierung genügt der Blick auf eine nicht-offizielle 7990 oder ein CF-Gespann aus zwei 7970. Beides wird bis auf wenige Prozent der offiziellen 7990 sehr nahe kommen. Der einzig spannende Punkt sind Mikroruckler, alles andere ist doch - abgesehen von der vergleichsweise geringen Leistungsaufnahme - weder besonders spannend noch überraschend. Allein die Hoffnung auf Besserung in diesem Bereich ist das einzige das die Karte (für mich) halbwegs interessant ist. Erklärung dazu: ja es ist schön wenn man permanent seine 60 fps kriegt weil man nur 1x Full-HD befeuert und dementsprechend weit weg ist von kritischen FPS wo man Ruckler verspüren könnte. In Kombination mit Eyefinity sieht die Sache aber wieder anders aus, da sind konstant 60 fps - selbst mit zwei Karten - bei aktuellen Titeln eher die Ausnahme. Deshalb ist mir persönlich ein durchgehend ruhiger Frameverlauf bei meinetwegen 40 fps deutlich wichtiger als wenn die Karte auf Biegen und Brechen ihre 50 fps hinbekommt, aber dafür von alternierenden Frame-Latenzen geplagt ist und einen generell sehr unruhigen Frameverlauf an den Tag legt.
 
CD schrieb:
Die Rechenleistung der Karte ist in etwa das unspektakulärste was man untersuchen kann. Für eine grobe Orientierung genügt der Blick auf eine nicht-offizielle 7990 oder ein CF-Gespann aus zwei 7970. Beides wird bis auf wenige Prozent der offiziellen 7990 sehr nahe kommen.Der einzig spannende Punkt sind Mikroruckler ....

Sehr gut auf den Punkt gebracht :daumen:!
 
Mein Auge... ;)

Aber ernsthaft, wenn ich mir da so diesen Plot anschaue, dann könnte mit besseren Treibern schon was gehen. Vielleicht.
 
009393884 schrieb:
Gestern ich in der kirsche: "Lieber Gott , wann verschwinden endlich alle Nvidia Fanboys der alten Microruckler generation"....
Ich bin nunmal keine schlechte pussyriot mutter , aber Gott lacht auch über euch.
Die ersten Tests werden jenseits von Microrucklern liegen und die 690 definitiv schlagen.
Im Bitcoining / Hashcracking bereich lacht man auch schon jahrelang über NVIDIA.

Bist du etwa so ein bitchecker? :freak: :rolleyes: Ist schon n bissl peinlich wie du auftrittst findest nicht?
Vor allem frage ich mich was du in einer Kirsche machst und wie du da rein kommst :lol:

Haldi schrieb:
Richtig, und wer ausser PCperspective macht denn ordentliche Tests über Mikro ruckler ?

Techreport und anandtech vielleicht? Die haben das sogar eingeführt. Allen voran Scott Wassons Investigation ist so was zu verdanken. AMD hat sich mittlerweile auch ein ziemlich namenhaftes Team zusammengestellt und wird das Problem nicht einfach ignorieren.

Dennoch fällt es a) nicht jedem auf, kann man es b) mit v-sync minimieren und c) entsprechende settings ingame nutzen um die Karte richtig zu fordern und "runt-frames" zu vermeiden / vermindern. Insgesamt ist die Problematik wohl nicht so groß wie geschildert, aber neue Messverfahren müssen langsam her. Diese billigen Tests mit avg-fps gehören nun wirklich nicht mehr in unsere Zeit. Das mag zu Tomb Raider und Unreal-Zeiten noch gut genug gewesen zu sein, aber mittlerweile haben sich die Märkte drastisch geändern.
Allein die vielen verschiedenen Techniken der ganzen Grafikgerüste macht vergleiche auf dieser Basis sehr schwer. Microsofts Direct3D-Spezifikationen tragen diesbezüglich auch nicht positiv dazu bei.

@CD: Laut diversen Tests liegen schon einige male größere Unterschiede zwischen einem konventionellem CF-Gespann und der 7990. Genauer hab ich aber noch keine Tests gelesen.
 
Zurück
Oben