News Finale Spezifikationen der Radeon HD 7990?

Numrollen schrieb:
Schön das Text immer wieder suggeriert das die Teile von AMD (rotes Lager? ) zwar gut aber warscheinlich, ziemlich sicher, bald, in kürzester Zeit, grün hört sich immer gut an, von Nvidia überholt wird. Diesen Windhauch spürt man auch öfters in Tests der Grakas... :mad:

Weil der GK104 auf der 680 nur 190W TDP hat?
Beide Dual GPU Karten werden durch das TDP limit ausgebremst! Es wird also die Karte strärker sein welche mehr Leistung pro Watt und besser skaliert im dual betrieb!

Ich tippe darauf das GTX690 schneller ist, aber AMD den AUSUM mode aufm 2 Bios hat welche die TDP sprengt aber die 690 locker hinter sich lässt.
Und alles was grösser als 2560x1440 ist hat amd die nase vorne. Es sei denn Nvidia hat da was optimiert.



Naja BTT: Unter wasser wäre das Monster sicher Cool! Lässt sich dann vllt mit 1000mhz betreiben. Je nachdem wo OVP /OCP einschaltet.
 
Wie viel werden von solchen Karten gebaut?
5 bis 10 Tausend?

Für 200-300€ hat man eine ähnliche Spielleistung und ein Vielfaches weniger an Problemen, Aufwand/Kosten usw.

Bis die neuen Konsolen kommen, reicht eine gtx460, 5850 für alles aus, wer gerne mit Mods zockt, kann sich eine 2gb Version holen, reich ebenfalls aus.

nvidia und amd sollten lieber ihre Karten/Treiber optimieren anstatt sinnlos die Leistung durch Verkleinerung des Fertigungsprozesses zu erreichen.

Der letzte wirkliche Sprung im Grafik/GK-Bereich war mit Crysis und einer gtx-Ultra^^
 
Nur weil du der Karte nichts abgewinnen kann, heißt das nicht, dass jetzt alle das Gerät doof finden müssen.
Es gibt sicher einige, die schon die ganze Zeit darauf gewartet haben. Sonst würde man so ein Geschoß ja nicht produzieren.
 
cob schrieb:
nvidia und amd sollten lieber ihre Karten/Treiber optimieren anstatt sinnlos die Leistung durch Verkleinerung des Fertigungsprozesses zu erreichen.

Der letzte wirkliche Sprung im Grafik/GK-Bereich war mit Crysis und einer gtx-Ultra^^

Bitte was? Sinnlos ist dein Kommentar. Und der letzte Sprung war wohl mit Metro 2033 unter Directx 11 mit Tessellation und Advanced DoF...
 
Ja.
Manchmal glaubt man wirklich im Forum der 12 Jährigen zu sein.
Da lohnt gar kein Kommentar.
 
Klingerdennis schrieb:
das ist mir zwar auch auchgefallen aber wenn man kurz nach denkt merkt man das es die letzten jahre immer so war dass NV schneller war oft dafür aber später dran war

Später dran könnte man dann auch AMDs nächste Generation sehen. Darauf sollte es aber nicht drankommen sondern ich wünsche mir von den Redakteuren etwas mehr Distanz und Objektivität. Dies ist nicht nur bei Grafikkarten der Fall, im Bereich Gehäuse bin ich zu 90% immer gegenteiliger Meinung. Man kann es nicht jedem Recht machen aber das sich hier Tests komplett unterscheiden zu vielen anderen sollte man auch beachten.
 
Zuletzt bearbeitet:
Klingerdennis schrieb:
das ist mir zwar auch auchgefallen aber wenn man kurz nach denkt merkt man das es die letzten jahre immer so war dass NV schneller war oft dafür aber später dran war
AMD kommt da Nvidia immer näher.
Zuerst konnte AMD mit der HD 4870 X2 erstmals die schnellste Grafikkarte vorübergehend präsentieren.
Mit HD 5970 konnte AMD längfristig vorne bleiben, bis ein Jahr später die GTX590 vs. HD 6990 nur auf Performance-Gleichstand trotz deutlich überhöhten Vorsprung kommen konnte.
Hingegen konnte AMD mit HD 5870 erstmals bei Single-GPU-Karten eine zeit bis GTX480 vorne liegen. Mit HD 7970 wiederholt sich das, aber diesesmal kann nicht die High-End-Karte die HD 7970 überholen, sondern ein getunter Performance-Chip kann im besten auf etwas schneller als HD 7970 werden.
Somit könnte AMD erstmals im Single-GPU-Markt mit Nvidia aufschließen. GK110 wird ja frühestens für August im Desktop-Markt erwartet und mit 700er-Bezeichnung & GK 11x eben schon als "nächste" Generation benannt, auch wenn sie Technisch der GK10x-Serie entspricht.

Prinzipel hat AMD den "Vorteil"der höhen Spannungen bei HD 7970.
Zwar mag GTX680 (GK104) etwas effizienter sein als HD 7970, aber mit 1,22 Volt kann man einen Thati mit 850Mhz vielleicht so auf 1,00 bis 1,05 Volt senken, während GK104 eben schon in diesem Bereich ist. Deswegen wird es GK104 als X2-Variante nicht so einfach haben, wie es im ersten Moment scheint, auch wenn es deutlich einfacher wird, als es mit GTX590 war.

HD 7990 & GK104-X2 werden wahrscheinlich eher mit 375W-TDP knapp um die Performance-Krone kämpfen, (wobei AMD wegen 3x2-GB & Co eventuell im Vorteil liegen könnte.)
 
Hm, die GTX680 wird im selben Rahmen schneller zur 7970 sein wie es die GTX580 zur 6970 war. Wahrscheinlich wird sie sich sogar besser halten. Also hat AMD hier schonmal aus wirtschaftlicher Sicht verloren. Nagut, einige drehen soetwas dann auch mal in ein Gewinn um...

Und die Aussage mit der Spannung. :lol:
Wer keine Ahnung hat, wie sich die Spannung auf den Gesamtverbrauch des Chips (!= Karte) auswirkt, sollte solche Aussagen einfach nicht stellen. Der Binning-Prozess bei AMD wird nicht umsonst so gestaltet. Die 7870 hatte z.B. bei Computerbase eine Ausgangsspannung von 1,218V. AMD benötigt diese Spannung, um hohe Taktraten fahren zu können und nicht, dass Leute dann eigenständig die Karte doch bitte untervolten sollen...
 
baizon schrieb:
Ich würde lieber einen Preiskampf anstatt eines "Leistungskampfes" sehen. Ich meine wer kauft sich schon eine 300W, 600€ Grafikkarte... wohl nicht die Mehrheit :p

Was hat das eine jetzt noch mal mit dem anderen zu tun? Wenn Du Dich im High End preislich nicht wohl fühlst darf ich Dir vielleicht den Budgetbereich empfehlen, da gibts dann auch statt Leistungs- mehr Preiskampf. Und Tschüss.

cob schrieb:
Bis die neuen Konsolen kommen, reicht eine gtx460, 5850 für alles aus, wer gerne mit Mods zockt, kann sich eine 2gb Version holen, reich ebenfalls aus.

Aber nur in Deiner eigenen kleinen Welt. Lass mich raten, Du hast einen (1) FullHD-Monitor (1920 x 1080/1200) auf dem Schreibtisch stehen? Aber warum diese ärmliche Auflösung, ist das eine Art Solidarpakt mit den armen Konsolenschweinen und ihren Fernsehern? Gibt es ein ungeschriebenes Gesetz, das schlechte Grafik vorschreibt und Dich dazu veranlasst, in diesem High End-Thread rumzunölen? Auch Tschüss.
 
Klingerdennis schrieb:
das ist mir zwar auch auchgefallen aber wenn man kurz nach denkt merkt man das es die letzten jahre immer so war dass NV schneller war oft dafür aber später dran war

Bei den Dual Karten war dies aber nicht so die 5990 und 6990 hatten bzw haben die Leistungskrone.
 
Ich seh das genau anders herum nämlich das die 680 gtx mit vollem takt (zumindest mehr in das dual gpu rennen gehen kann 2x 195 (wenn es den stimmt) is nur knapp über dem 375W limit.
Kann aber auch sein das sie bis zum erscheinen der 7990 den fertigungsprozess optimiert haben.
Das einzige das für amd spricht ist der ram in solchen settups , wobei es sicher auch 690 käufer geben wird , nämlich evtl die die nicht auf ultra high 3 monitor 30" sgssa 32x gamen sondern auf ihren 1080p 3d vision flüssige fps haben wollen . Da reichen die 2gb aus und man ist mit der besseren Performance (geschätzt) besser bedient.

Also auch hier würde ich das keinesfalls alles in eine schublade geben , sondern es ist einfach zu abhängig welches einsatzgebiet die graka erfüllen soll.
Naja morgen ist es sense da weis man dann was am verbauch dran ist, was an der performance dran ist und dann kann man auch die 2 grakas im sli/cf in entsprechender Auflösung testen und schonmal abschätzen wie der speicher sich auswirkt.

Alles Relativ :D
 
Zuletzt bearbeitet:
cob schrieb:
Bis die neuen Konsolen kommen, reicht eine gtx460, 5850 für alles aus, wer gerne mit Mods zockt, kann sich eine 2gb Version holen, reich ebenfalls aus.
Metro 2033, BF3 auf Ultra (dürfte schon auf High eng werden), Crysis 2, jedes beliebige Spiel in 3D,... nicht jeder zockt Minecraft :freak:
 
Sontin schrieb:
Hm, die GTX680 wird im selben Rahmen schneller zur 7970 sein wie es die GTX580 zur 6970 war. Wahrscheinlich wird sie sich sogar besser halten. Also hat AMD hier schonmal aus wirtschaftlicher Sicht verloren. Nagut, einige drehen soetwas dann auch mal in ein Gewinn um...

Kannst Du hellsehen ? Woher nimmst Du die Erkenntnis, dass GTX680 vs 7970 = GTX580 vs. 6970. Weil es früher so war ? Warte doch einfach mal ab.

Und wieso hat AMD dann wirtschaftlich verloren ? Und einige drehen sowas in Gewinn um ? Häh ???

Was für ein Haufen dummes Geblubber !!! Das tut ja beim Lesen schon weh.
 
Die Karte ist irgendwo fürn Arsch, erstens hat man Treiberprobleme, evt. MR wenn man dann beide GPU ansprechen kann. Dann kommt hinzu, dass so ne Karte bei HD Auflösung überdimensioniert ist und bei größerer Auflösung es keine vernünftigen Monitore zum Zocken gibt. Dann schreien viele BQ bei nur HD Auflösung (als Legitimierung) und haben ne "Schrottmöhre" mit TN Panel.
Dann braucht man noch ne WaKü sonst macht es echt keinen Spaß. Letztlich muss man für marginal etwas mehr Freude unglaublich viel Geld auf den Tisch legen, nicht wegen der Karte, sondern wegen der Monitore, weil einer ist m.M.n. deutlich zu wenig.
 
Vitec schrieb:
Das einzige das für amd spricht ist der ram in solchen settups , wobei es sicher auch 690 käufer geben wird , nämlich evtl die die nicht auf ultra high 3 monitor 30" sgssa 32x gamen sondern auf ihren 1080p 3d vision flüssige fps haben wollen . Da reichen die 2gb aus und man ist mit der besseren Performance (geschätzt) besser bedient.

Ich komme mit meiner 6990 und ihren 2 x 2 GB unter Eyefinity ganz gut zurecht, ob die 690 per se ein Speicherkrüppel wird steht also meiner Meinung nach nicht fest. (Die 5970 mit 2 x 1 GB hatte mir allerdings wenig Freude bereitet ...) Ich bezweifle auch, dass man in jeder Kartengeneration automatisch den VRAM erhöhen muss.

Vor die Wahl gestellt würde ich allerdings immer mehr nehmen, sicherheitshalber, und so werden vermutlich viele Multimonitoruser denken. 2 GB sind gewissermaßen schon veraltet.

Leider kommt die 7990 für mich nicht infrage, das wird einfach zu teuer, ich muss mal was auslassen. Mit einer 6990 unter Wasser ist das auch der richtige Zeitpunkt, die jetzigen Spiele kriegen sie nämlich nicht wirklich klein und das wird wohl auch eine Weile so bleiben. Bin zwar gespannt was die neue bringt, ansonsten peile ich aber die 8000er an - dann sind auch Architektur und Shrink erprobt. Es wäre schön, wenn die Grafikstagnation zusammen mit den Spezifikationsgrenzen dazu führt, dass Singlekarten mit großem Chip ausreichen. Das ist natürlich die Domäne von Nvidia, wenn die späteren Keplers was werden könnte ich mir auch einen Wechsel vorstellen.
 
Bei der GTX 680 sind 2GB knapp ausreichend, bei einer GTX 690 sind 2x2GB viel zu wenig und limitieren garantiert oben raus. Und für sowas wird die Karte eben gekauft ergo -> Vram Krüppel. Für so viel Geld hätten es schon 2x 4GB sein müssen. Die HD 7990 2x3GB zeigt wie es geht und wieder eine dualkarte von AMD mit ausreichend Vram. AMD hat in Sachen Vram ihre Lektionen bei der HD 5000 gelernt. HD 5870 1GB und HD 5990 2x1GB hatten einfach zu wenig, mit dem Resultat sein einige Tester den Einbruch durch den Vram mit zu wenig Tessellationspower bewertet haben, das hat AMD garantiert überhaupt nicht geschmeckt.
 
Ameisenmann schrieb:
Die Karte ist irgendwo fürn Arsch, erstens hat man Treiberprobleme, evt. MR wenn man dann beide GPU ansprechen kann. Dann kommt hinzu, dass so ne Karte bei HD Auflösung überdimensioniert ist und bei größerer Auflösung es keine vernünftigen Monitore zum Zocken gibt. Dann schreien viele BQ bei nur HD Auflösung (als Legitimierung) und haben ne "Schrottmöhre" mit TN Panel.
Dann braucht man noch ne WaKü sonst macht es echt keinen Spaß. Letztlich muss man für marginal etwas mehr Freude unglaublich viel Geld auf den Tisch legen, nicht wegen der Karte, sondern wegen der Monitore, weil einer ist m.M.n. deutlich zu wenig.

Noch so einer. Also, wer durch ein FullHD-Guckloch in die Spielwelt schielen will, der kauft sich irgendeine Performance-Karte und hält sich aus High End und Multi-GPU raus, weil er ja grade selber entschieden hat, dass es ihm zu teuer ist. Wer mehr will braucht zwar teure Karten und ggf. Wakü, aber an drei günstigen, gamingtauglichen Monitoren scheitert es ja nun bestimmt nicht bei den heutigen Preisen.

IPS-Panel, LED, DisplayPort, 8 ms (naja) für < 250 €/Stk.: Dell UltraSharp U2412M. Wo ist da jetzt das Problem? Ich kann mich noch an die Preise früher erinnern, meine 17" Röhre war teurer als der Rechner! Und Monitore kauft man außerdem nicht dauernd neu ...
 
@der Dau

Grundsätzlich seh ich das ähnlich wie du, aber die Dell U2412M sind ja wohl nur auf den ersten Blick ein Schnäppchen. Nicht nur das die Panels oft unregelmäßig ausgeleuchtet sind, nein, das man drei mit der selben Farbcharakteristik erwischt scheint auch eher unwarscheinlich. Von Rändern fang ich jetzt gar nicht an.

Ein 1440/1600p Gerät am Schreibtisch ist schon ideal, aber leider haben die alle so ihre Macken. Von daher muß ich Ameisenmann ein klein wenig recht geben, sinnvoll ist anders.

Ich zock grad die SiedlerOnline und hab hier drei GTX580@ 3GB liegen. Ich denke das Spiel hätte ich auch auf FullHD ertragen xD. Will sagen: Der Mehrgewinn an Spass ist auch mit viel Geld in der Hand arg begrenzt.
 
Kasmopaya schrieb:
Bei der GTX 680 sind 2GB knapp ausreichend, bei einer GTX 690 sind 2x2GB viel zu wenig und limitieren garantiert oben raus. Und für sowas wird die Karte eben gekauft ergo -> Vram Krüppel. Für so viel Geld hätten es schon 2x 4GB sein müssen.

Ich habe mir zwar vorgenommen nicht auf deinen Post zu antworten, aber das ist wirklich schon ein Frevel den du da begehst. ;)

1. 2GB ist keine V-Ram-Krüppelierung... :freak:
2. Woher weißt du, dass die GTX690 nicht doch 4GB pro GPU bekommt ?
3. Die GTX690 wird leichtes Spiel mit der HD7990 haben, schon wegen der TDP-Limitierung.
4. Würde ich mir trotzdem nie ein Dual-GPU-System zulegen wollen. :p

CB hat es schon treffend formuliert.
Da Morgen schon der ausführliche Test der GTX680 erscheinen wird, so weiß CB auch über seine Stärken und Schwächen genau bescheid.
Bei einer kommenden HD7990 müssen die TahitiXP-GPUs über den Takt beschnitten werden, wegen der TDP. Eine GTX690 hingegen kann ihre voll Taktrate von zwei GK104 fahren.
Wenn jetzt schon eine HD7970 langsamer ist als eine GTX680, so wird eine HD7990 mit Sicherheit deutlich langsamer als eine GTX690 sein.
OB nun 2 oder 3 GB V-Ram, macht den Kohl dann auch nicht mehr fett.

Um es mal mit deinen Worten zu umschreiben. :D
"Dieses hervorragende Produkt aus dem Hause NVIDIA, setzt mal wieder einen Meilenstein in Sachen Performance und gleichzeitigen sparsamen Verbrauch, den wirklich niemanden etwas entgegen zu setzten hat. Herrlich..."

:evillol:
 
Pumpi schrieb:
Grundsätzlich seh ich das ähnlich wie du, aber die Dell U2412M sind ja wohl nur auf den ersten Blick ein Schnäppchen. Nicht nur das die Panels oft unregelmäßig ausgeleuchtet sind, nein, das man drei mit der selben Farbcharakteristik erwischt scheint auch eher unwarscheinlich. Von Rändern fang ich jetzt gar nicht an.

Ich kenne ihn nicht, ich habe drei vom Vorläufer (leider ohne LED und auch noch deutlich teurer). Er ist gut getestet, mit Ausleuchtung und Farbe könntest Du aber Recht haben. Für das Farbproblem hatte ich mir extra einen Spyder-Kalibrierer gekauft, der hat aber leider so seine Probleme mit Eyefinity. Sehr schön an den Dells ist der DisplayPort, kein Generve mit aktiven Adaptern. Für meine 4 Dells habe ich mir einfach 4 DP/MiniDP Kabel gekauft und sie alle in die 6990 gesteckt, basta. Der Rahmen könnte schmaler sein, ist aber dezent und gleichförmig. Außerdem (und deshalb) kann man sie auch hochkant nebeneinander stellen.

Und: Wie viel kann man für 250 € schon falsch machen?

Pumpi schrieb:
Ein 1440/1600p Gerät am Schreibtisch ist schon ideal, aber leider haben die alle so ihre Macken. Von daher muß ich Ameisenmann ein klein wenig recht geben, sinnvoll ist anders.

Mein vierter Dell ist ein U2711, dessen Bild in 2560 x 1440 ich einfach geil finde, auch wenn die Ausleuchtung nicht so toll ist. Er ist inzwischen ebenfalls günstig ...

Pumpi schrieb:
Ich zock grad die SiedlerOnline und hab hier drei GTX580@ 3GB liegen. Ich denke das Spiel hätte ich auch auf FullHD ertragen xD. Will sagen: Der Mehrgewinn an Spass ist auch mit viel Geld in der Hand arg begrenzt.

... und ich nehme ihn für solche Sachen, Filme und alles, was Eyefinity nicht mag. Ich ärgere mich darüber, dass Multi-GPU da nicht vernünftig skaliert. Obwohl das mit den 7000ern ja besser geworden sein soll. Die Dinger müssen sich wirklich richtig abschalten, wenn sie nix zu tun haben.

Der Spaßfaktor steht für mich persönlich aber völlig außer Zweifel. Nenn es ruhig Sucht, aber 1 x 1080 ist doch ne Postkarte. Mir ist schleierhaft, warum so viele es für das Maß aller Dinge halten. Muss am Fernsehen liegen. Dafür würde ich mir ne gebrauchte Konsole kaufen, aber keinen neuen PC.
 
Zurück
Oben