News Finale Spezifikationen der Radeon HD 7990?

derDAU schrieb:
Mein vierter Dell ist ein U2711, dessen Bild in 2560 x 1440 ich einfach geil finde, auch wenn die Ausleuchtung nicht so toll ist. Er ist inzwischen ebenfalls günstig ...

Mein Dell heißt auch U2711, und ja, er macht ein sehr hübsches Bild. Das Problem ist nur das er Vsync zwingend braucht oder aber Bildversatz produziert. Das wäre ja kein großes Problem wenn man Spiele auch immer unter 60fps problemlos zocken könnte an dem Gerät. Nur leider gibt es so unschöne Engines wie die der Anno-Reihe, welche partout nicht mit MGPU (7990) unter 60fps und Vsync klar kommen (Ruckler). Da leider keine CPU der Welt dauerhaft über 60fps, bei Stadtgrößen über 15000 Einwohner hält, ist dieser Monitor im Grunde für das Spiel untauglich weil MGPU bei der Auflösung absolut notwendig. Da heißt es dann Auflösung runter (Trauerränder) und auf single GPU umswitchen. Will sagen: Man ist auf großen Auflösungen zu abhängig von funktionierendem MGPU'ing und das ist suboptimal und verständlicherweise nicht für jeden erstrebenswert.
 
waps schrieb:
Metro 2033, BF3 auf Ultra (dürfte schon auf High eng werden), Crysis 2, jedes beliebige Spiel in 3D,... nicht jeder zockt Minecraft :freak:

Darf man auch nicht so verallgemeinern. Minecraft mit 256x256 HD Texturen und Licht-Shader Mod: Schon braucht man etwas schnelleres als ne GTX560Ti. :lol:
 
Ich war auch kurz davor einen Dell U2711 zu holen. Die sind wirklich günstig geworden.
Aber dieses dämliche 16:9 schreckt mich total ab.

Wenn ich Strategiespiele wie Supreme Commander spiele darf ich mir die ganze Bauleiste unten wegdenken, denn derzeit habe ich einen 27" 1920x1200 16:10 TFT.
Wie soll man an so einem Teil eigentlich arbeiten wenn man 16:10 gewohnt ist?
Leider sind die 30" noch nicht billiger, dafür aber oft wieder mit 16:10.
Mehrmonitorbetrieb kommt bei mir nicht in Frage und kostet auch x-mal soviel Leistung inklusive schwarzer Displayrahmen.

MultiGPU Systeme sehen mit ihren vielen fps oberflächlich gut aus aber das Geruckle nimmt gar kein Ende. Der Unterschied 30 zu 60 fps fällt mir mindestens genauso auf wie das Mikrogeruckel von solchen Kartenverbänden. Auf 1920x1200 dagegen bekommt man mit einer einzelnen Grafikkarte oftmals noch seine 60 fps irgendwie zusammen. Bin mal gespannt wann sich 1440p oder höher mal durchsetzt. Wir sind quasi von 1920x1200 damals auf heute 1920x1080 runtergegangen, das ist Fortschritt:freak:
 
aylano schrieb:
AMD kommt da Nvidia immer näher.
Zuerst konnte AMD mit der HD 4870 X2 erstmals die schnellste Grafikkarte vorübergehend präsentieren.

Entschuldigung - aber AMD hatte schon 2002 (damals noch ATI) mit der Radeon 9700 pro die derzeit schnellste Karte präsentiert. Ab davon war AMD/ATI ab diesem Zeitpunkt so gut wie immer auf - mindestens - Augenhöhe mit Nvidia. Die X-Serie (X850 etc. ) sowie X1000-Serie waren sehr stark.
 
Pumpi schrieb:
Mein Dell heißt auch U2711, und ja, er macht ein sehr hübsches Bild. Das Problem ist nur das er Vsync zwingend braucht oder aber Bildversatz produziert.

Ist mir bei meinem noch nicht aufgefallen. Bildversatz? Wie meinst Du das genau?

Pumpi schrieb:
Man ist auf großen Auflösungen zu abhängig von funktionierendem MGPU'ing und das ist suboptimal und verständlicherweise nicht für jeden erstrebenswert.

Hm, da ich wegen Eyefinity immer Double- oder sogar Triple-GPU (5970 + 5870 @ 3 x 1 GB VRAM :() hatte fahre ich den 2711 meist auf Maxsettings (von extrem hohem AA einmal abgesehen). Mit ihm allein, ohne Eyefinity, würde ich mich aber auf eine übertaktete Single beschränken und notfalls die Qualität verringern. Kann mir nicht vorstellen, dass man wirklich mehr braucht. Im Zweifel verliere ich jedenfalls lieber Qualität als Auflösung, ist ja bei Eyefinity genauso. Zu Multi-GPU zwingt mich gegenwärtig nur Eyefinity. Und wenn die nächste (nach der kommenden) Kartengeneration Single für Eyefinity einigermaßen erlaubt versuche ich es. Die Double-Karten mit Dauer-Crossfire nerven schon sehr, zwei Karten + zwei Kühler auch. (Von Deinen drei will ich jetzt gar nicht anfangen ... ;).)

Das alles ist nix für jeden, da hast Du Recht. Aber dann ist ein Thread wie dieser eben auch nix für jeden.
Ergänzung ()

Draco Nobilis schrieb:
Ich war auch kurz davor einen Dell U2711 zu holen. Die sind wirklich günstig geworden.
Aber dieses dämliche 16:9 schreckt mich total ab.

Leider hat der 2711 noch kein LED-Backlight und einen recht satten Stromverbrauch. Aber bei dem Preis ging mir echt die Kinnlade runter, ich habe damals > 900 bezahlt.

Und das 16:9 finde ich grade gut. Man hat ja im Vergleich zu 1920 x 1200 trotzdem verschwenderisch viel Platz* (Dein 27er ist zwar gleich groß, wird Dir dagegen aber irgendwie pixelig vorkommen ;)). Ansonsten habe ich mich sogar an 48:10 gewöhnt. Das Format ist perfekt für Filme und für Shooter ein schönes Breitbild. Und man spart vom 30" 16:10 ein paar Bildpunkte, ein bisschen Performance für schlechte Zeiten. Ich denke wie gesagt, dass er auch an eine Singlekarte passt. An einer 7990 ist er praktisch off limits.

*Bei Spielen mit fixiertem Bildausschnitt wie Starcraft 2 hat man natürlich keinerlei Vorteile.
 
Pickebuh schrieb:
1. 2GB ist keine V-Ram-Krüppelierung... :freak:
2. Woher weißt du, dass die GTX690 nicht doch 4GB pro GPU bekommt ?
3. Die GTX690 wird leichtes Spiel mit der HD7990 haben, schon wegen der TDP-Limitierung.
1.
2Gb sind ok, aber 2x2Gb nicht, die Leute die so eine Karte kaufen, haben in der Regel auflösungen und AA-Modi die ganz wesentlich auf VRam angewiesen sind.
2.
In der Regel ist das so, wenn sie 2x4Gb bringen wäre das außergewöhnlich vernünftig.
3.
Leichtes Spiel sicher nicht, der unterschied ist im Single Duell schon knapp zu erwarten.
Im Dualbetrieb würde der Vram sicherlich ein entscheidendes Qüäntchen dazu tuen.

Pickebuh schrieb:
Eine GTX690 hingegen kann ihre voll Taktrate von zwei GK104 fahren.
wird Sie können? Laut Gerücht, 2x195W = 390W, wenn dem so ist wie Gerüchte sagen, müsste auch diese GPU im Takt einbußen machen ...




Aber morgen wissen wir vielleicht mehr, man kann sich das doch recht simple hochrechnen ...
Wann kommt der CB Test mit 2x 7970 auf 7990 Niveau getaktet ? oder macht ihr das nicht als vorgeschmack? kurztest, bitte bitte :D
 
naja die TDP wird oft nur ansatzweise ausgefahren. Der GK104 könnte durch sein TDP Limiter profitieren, die DUAL GPU Karte könnte also durchaus mit 1 Ghz oder mehr takten sofern die TDP nicht überschritten wird oder willentlich überschritten wird.

Ich sehe hier einen entscheidenden Vorteil, zudem hat man meines Wissens noch die µR besser im Griff.

2x2 GB wären, ich sag mal noch ausreichend, aber für die Zukunft wären sicher 2x4 GB von Vorteil.

Das SI dürfte weniger ein Problem werden, das verdoppelt sich ja praktisch bei Multi GPU mit udn pro GPU fällt nicht mehr Leistung an als bei einer Singel Karte.
 
Zuletzt bearbeitet:
Ich warte auf die HD 8800 und steige in paar Jährchen auf die gtX800 um^^
und in einem Jahrzehnt drehen sich die Zahlen nocheinmal um.
:rolleyes:
 
ExcaliburCasi schrieb:
1.
2Gb sind ok, aber 2x2Gb nicht, die Leute die so eine Karte kaufen, haben in der Regel auflösungen und AA-Modi die ganz wesentlich auf VRam angewiesen sind.

Also wäre eine HD6990 ebenfalls ein V-Ram-Krüppel bzw. zu nichts zu gebrauchen ?
Du machst doch Witze oder ??

2.
In der Regel ist das so, wenn sie 2x4Gb bringen wäre das außergewöhnlich vernünftig.

Ich glaube kaum, dass es einen messbaren Unterschied zwischen 2x2 oder 2x3 oder gar 2x4 GB gibt.
In 5 Jahre kann es vielleicht einen geben, wenn die Konsolen endlich alle auf einmal kaputtgehen und die Leute nach etwas neuem schreien.

3.
Leichtes Spiel sicher nicht, der unterschied ist im Single Duell schon knapp zu erwarten.
Im Dualbetrieb würde der Vram sicherlich ein entscheidendes Qüäntchen dazu tuen.


wird Sie können? Laut Gerücht, 2x195W = 390W, wenn dem so ist wie Gerüchte sagen, müsste auch diese GPU im Takt einbußen machen ...

Wie schon gesagt, bezweifle ich es ganz stark, dass sich 2 GB oder 2x2 GB so stark bemerkbar machen, das man sie als "Krüppel" bezeichnen müsste.

Zudem ist die Rechnung mit der (Leistungsaufnahme) x 2 nicht ganz richtig.
Eine Dualkarte verbraucht immer weniger als ein Gespann aus zwei vollwertigen Karten.
Dazu kommt noch die maximal mögliche Boardpower von 2x8pin PCIe-Anschlüsse + 1xPCIe-Steckplatz, was genau 375 Watt ergibt.
Dieses hat auch die HD6990 verwendet und scheint der neue Standard für die Enthusiasten-Karten zu sein.

Die TDP liegt zwar bei 195 Watt, aber die Gamingleistung ist immer etwas darunter.
Daher kann man schon von der vollen Taktzahl der Kepler-Dual-Karte ausgehen.
AMD müsste entweder die offizielle TDP-Angabe neu definieren und einen weiteren 6pin-Anschluss verbauen, oder sie senken zur Leistungseinsparung die Taktraten ab, was sie ja auch tun werden (850/5000) MHz. Dies würde eine Performanzeinbuse von ca. 8,1 Prozent ergeben.

Aber morgen wissen wir vielleicht mehr, man kann sich das doch recht simple hochrechnen ...

Ja, wir rechnen Morgen fertig. ;)

Wann kommt der CB Test mit 2x 7970 auf 7990 Niveau getaktet ? oder macht ihr das nicht als vorgeschmack? kurztest, bitte bitte :D

https://www.computerbase.de/2012-01/test-powercolor-hd-7970-crossfire/
Dies eben mit ca. 10% weniger Performanz betrachten.
 
Finde man sollte mal über einen gescheiten Kühler nachdenken, der so eine Dual-GPU-Karte auch LEISE und GUT kühlen kann. Somit braucht man bei den Taktraten keine Kompromisse eingehen und die Karte auch bis ans Limit bringen wie eine einzelne 7970 eben auch.

Ein weiterer sehr guter Grund sind die Mikroruckler, die mich immer wieder von SLI oder auch Crossfire abhalten.

Wären diese beiden Störfaktoren nicht gegeben, würde ich mir die Karte auch kaufen, auch wenn ein Kühler montiert werden müsste, der 4 Slots oder eventuell sogar mehr braucht um kühl und leise zu sein!

Das die Karte einiges an Strom zieht, dürfte jedem klar sein und ich denke, jeder der das nötige Kleingeld für ein solches Monster übrig hat, dürfte auch das nötige Budget besitzen für die Stromkosten!...

Für hohe Qualitätseinstellungen im Treiber (Supersampling AA) sicherlich gut zu gebrauchen, da muss nicht unbedingt eine ultra hohe Auflösung her um die Karte auch auszulasten...
 
@Dr.Duschlampe
Metro2033 konnte Crysis nicht einmal in allen Bereichen übertreffen und erkaufte sich das alles mit unglaublichem Hardwarehunger, mit Mods sieht Crysis auch mit dx10 noch gleich gut oder sogar besser aus, als "großen Sprung" würde ich das nicht bezeichnen...

@HardwareXXL
solche Hardware ist eher was für 12 Jährige... :)
Meiner ist länger usw. ...

@derDAU
ist würde mir sofort eine solche Karte kaufen, wenn man sie brauchen würde für sagen wir mal
BG3 oder ähnliche Kracher, aber ich gebe keine 800€ aus, um x-Bildschirme anschließen oder die Bildverbesserungen so weit aufzudrehen, dass man mit der Lupe paar Unterschiede feststellen kann... Mit einer übertakteten gtx570 zockt man noch alle Games in guter Qualität...

@waps
Eine "normale" Karte reicht für alles aus, wenn eine Singel-GPU an ihre Grenzen stößt, dann zockt man mit solchen Monstern auch nahe an der Grenze... erst wenn man mit den Filtern übertreibt, dann wird es knapp.

Es wird fast alles für die Konsole entwickelt, deswegen entzieht sich mir der Sinn für eine solche Karte, aber ich schrieb ja auch, dass paar Tausend als Zielgruppe in Frage kommen, aber für den "normalen" Gamer ist so was sinnlos.
 
Sontin schrieb:
Hm, die GTX680 wird im selben Rahmen schneller zur 7970 sein wie es die GTX580 zur 6970 war. Wahrscheinlich wird sie sich sogar besser halten. Also hat AMD hier schonmal aus wirtschaftlicher Sicht verloren. Nagut, einige drehen soetwas dann auch mal in ein Gewinn um...
Aha, dass Nvidia mit ihren GPGPU-Vollgestopften High-End-GPU diesesmal überhaupt nicht gegen AMDs "High-End/Performance" GPGPU-Vollgestopftehn GPU antreten kann, siehst du als Vorteil?
Eine Performance-GPU ohne vollgestopften GPGPU-Einheiten ist immer effizienter als ohne diese Einheiten. Und was in Sachen Performance-pro-Watt effizienter ist, kann mit dieser Effizienz immer effektiv in Zusatz-Performance umgesetzt werden, wenn sie es wollten.
Deshalb ist auch HD 7870 sehr effizient und AFAIK auf GK104 Niveau werden, wenn nicht besser.
AMD jetzt als wirtschaftlicher Verlierer zu sehen, kann jeder lachen, denn Nvidia hat jetzt nicht einmal eine Karte offiziell am Markt und AMD schon 3 Dies verkauft.
Während GK110-Desktop sich mit Sea-Island müssen muss, muss sich überhaupt zeigen, wieviel GTX680 überhaupt geliefert werden könnne.

Und die Aussage mit der Spannung. :lol:
Wer keine Ahnung hat, wie sich die Spannung auf den Gesamtverbrauch des Chips (!= Karte) auswirkt, sollte solche Aussagen einfach nicht stellen. Der Binning-Prozess bei AMD wird nicht umsonst so gestaltet. Die 7870 hatte z.B. bei Computerbase eine Ausgangsspannung von 1,218V. AMD benötigt diese Spannung, um hohe Taktraten fahren zu können und nicht, dass Leute dann eigenständig die Karte doch bitte untervolten sollen...
Auch wenn es Tatsache ist, dass die AMDs X2 geringere Spannungen hatten, dürfte ich wirklich keine Ahnung haben. Ich bin mir sicher, das ist jetzt aber was ganz anderes.
 
Zuletzt bearbeitet:
gibts schon was neues zur 7990 ? dachte das teil kommt nunmal bald raus. hiess doch erst februar, dann märz, nun ist april
 
und nun haben wir fast Ende Mai :(
 
Zurück
Oben