Milchwagen
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 2.025
FurMark soll man eigentlich nicht mal mehr nutzen. Hat schon Karten geschreddert.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
tic-tac-toe-x-o schrieb:Dank dem Kühler ne 290X 2.0 in Sachen Launch. Hat AMD zuerst mit der 390(X) daraus gelernt (keine Referenzkühlung) und dann wieder ein Schritt zurück. Aber Referenzkühlung ist nicht gleich Referenzkühlung... Dieser klitzekleine Kühlkörper im Inneren der Karte kann halt "nur so viel"... Aber genau dadurch verschenkt sich die Karte das Potential besser zu übertakten und mit kühlerem Chip weniger zu verbrauchen. Und jetzt, wo das Ergebnis sich so umspricht, hoffe ich trotzdem mal dass die Karten nicht in den Läden verstauben... Diese Haufen an Karten die man zumindest bei Mindfactory sehen konnte hätten alles mit entweder ne bessere Referenzkühlung oder mit Customkühlung sein sollen. :/
Max007 schrieb:Ich finde die Karte echt Top, da kann man nicht viel meckern.
Aber zwei Sachen stören mich gewaltig:
1. 12,5% mehr Speichertakt resultieren in 6% mehr Leistung, d.h. der Grafikbus limitiert wie erwartet. Warum werden keine 4.500 Mhz-Speicherchips verbaut?
2. Langsam sollte auch bei AMD angekommen sein, dass ihre Referenz-Karten scheisse sind und der erste Eindruck leider der bleibende Eindruck ist. Kaum OC-Potenzial, nicht zuletzt wegen des 6-pol PCIE-Steckers, eher schlechte Temperatur. Würde man gleich zum Start Custom-Modelle erlauben die mit 8Pin oder gar 8+6, gescheiter Kühlung und Werks-OC daherkommen, hätte man gleich zum Start "RX 480 schlägt GTX 980" titeln können.
Ich bin mir sicher, dass eine gute Sapphire oder EVGA-Customkarte locker an die 1.400 Mhz kommt und dabei leise und kühl bleibt, 1.400 GPU/4500 MEM - das wäre doch grandios.
Stattdessen stellen die sich wie so häufig selber nen Bein, wer kauft schon die Referenzmodelle, die nehme ich nicht mal geschenkt - egal ob AMD oder nvidia.
Da bringen dir die 8GB der 480 dann natürlich auch sehr viel wenn das Spiel auf maximalen Details eh nicht flüssig läuft.
. If you're running on any GPU with less than 5GB VRAM, you're going to see the above warning. You can get around it by starting the game with "+menu_advanced_AllowAllSettings 1", but if they're serious about crashes, you're probably best off leaving it alone. But we threw caution to the wind and retested performance.
We used our standard test bed, which runs an overclocked 4.2GHz i7-5930K with 16GB G.Skill DDR4-2666 RAM. For test settings used the Ultra preset at 1920x1080, 2560x1440, and 3840x2160. We also ran the Low preset and Ultra + Nightmare (and 16xAF), both at 3840x2160. And no, Doom didn't crash during our testing, even on 4GB GPUs with Nightmare quality enabled, though we didn't play for more than 15 minutes.
As ever with the extreme end of PC gaming, it is a case of diminishing returns. You’d do well to notice much difference at all between DOOM in Nightmare Mode and Ultra, so don’t fret too much if you don’t have the required hardware. Look towards the shadows for some very minor chances, but it's extremely difficult to notice any effect at all.
Falke85 schrieb:Was?... Guckst du dir nur die Preise an
Warum ist man "PCIe Spec Hater"? Sollte man nicht davon ausgehen, dass solch essentielle Dinge vorher gecheckt werden? über das begrenzte OC, den doch sehr hohen Verbrauch und Co. kann man gerne streiten, aber sowas geht nicht. Egal ob bei nVidia oder AMD, egal ob Einstiegs- oder Highend-karteMilchwagen schrieb:AN alle PCIE Spec"hater": Dann wartet auf die Partnerkarten und schon ist das "Problem" behoben. Selbst meine 7870 darf laut Bios 88W aus dem PCIE slot ziehen.
GoZx schrieb:So oft gibts solch hochgezüchtete Games sowiso nicht.
fortknox schrieb:Die überwältigende Mehrheit an Videospielern gibt sich mit 30 FPS zufrieden (Konsolenspieler sind auch Spieler!). Du bist nicht der Nabel der Welt, auch wenn deine individuellen Ansprüche höher sind.
Bei dem neuen Tomb Raider trifft das auf jeden Fall zu. Hoffe, dass Du es trotzdem lustig fandest . Allein schon, wenn man Ultra/High-Texture-Mods in etwas älteren Spiele-Engines verwendet, lohnt es sich einfach mehr VRAM zu haben.Pisaro schrieb:Argh, man sollte schon lesen worum es hier ging. Nämlich um Tomb Raider mit max Details. Da bringen dir die 8GB dann nicht viel, denn ruckeln ist ruckeln. Das man ansonsten heutzutage keine Karte mit nur 4GB kaufen sollte ist doch selbstverständlich .
The comparison overview shows that some of Nvidia’s GeForce cards consume less power during the stress test, since GPU Boost recognizes the nature of the load and limits power consumption accordingly.
Krautmaster schrieb:Dass viele der AMD Anhänger hier zwingend den Vergleich mit einer quasi 2 Jahre alten und 2 Fertigungsstufen dahinter liegenden Maxwell Generation suchen müssen spricht doch eher gegen als für das Ergebnis.
Chillaholic schrieb:Ja und Spitzenleistung unter DX12, ach nee warte, unterstützt gar kein Async Shading, wie blöd.
GoZx schrieb:Danke für die Info, das hab ich nicht gesehn. Aber für 1 von 22 Games im Testfeld würd ich das trotzdem niemandem empfehlen. Alle anderen Games liefen sogar auf 1440P. Dann lieber für so extreme Ausnahmen wie Doom halt eine RAM hungrige Einstellung einen Tick runter nehmen. Wenn Games wie Witcher und GTA5 gut laufen mit 4GiG...So oft gibts solch hochgezüchtete Games sowiso nicht.
DIe P/L bei der 4GB Variante ist wirklich super, da stimme ich dir zu, aber 20% Aufpreis für vermutlich eh nie genutzte 4GB mehr lohnen sich dann schon weniger ... und vor allem muss das PCIe-Problem gelöst werden, die anderen Dinge wie Lüfter und Co. werden sicher eh durch die Customs besser werden!Shelung schrieb:Was hier im Thread abgeht war zu erwarten. Egal was im Bericht steht.
Die Karte ist gerade mal im Referenz Design kaum auf dem Markt und die P/L ist doch super.
Besonders die CF Leistung hat mich erstaunt. Wir rücken ja langsam in Richtung 100% mehr Leistung bei 2 Karten.
In paar Wochen ist dann aber auch die GTX 1060 da und mit der muss sie sich vergleichen ... eigentlich ist der Vergleich mit Auslaufmodellen eh für die Katz, egal ob aus eigenem oder fremdem Lager.Chillaholic schrieb:Eine brandneue Referenzkarte mit einer OC Customkarte zu vergleichen halte ich eh für schwachsinnig. Wartet mal ein paar Wochen, guckt euch die OC Customs der 480er an, wartet auf neuere Treiber und dann reden wir noch mal in Ruhe darüber. Nvidia hatte mittlerweile ja genug Zeit die 970 zu optimieren, dann gebt AMD mal wenigstens ein paar Wochen.
Krautmaster schrieb:dass es dafür 2 Jahre und 14nm braucht. Gäbs von der RX 480 nur ein 4GB Modell würde sich das herzlich wenig mit der Maxwell Karte geben.
Ich finde es technisch erschreckend. Das P/L ist okay.
Edit. Kritisch sehe ich das mit dem Sprengen der Specs (eigentlich genauso schlecht wie die 3,5 GB der GTX 970) und darüber hinaus der schlechte Multimonitor Verbrauch.
derfledderer schrieb:PCPerspective stellt außerdem heraus, dass die 4GB scheinbar auch 8GB verbaut hat, jedoch lediglich durch ein 4GB Bios runtergeschaltet wurde. PC Perspective steht ein BIOS zur Verfügung, mit dessen Hilfe sie hin und her switchen können. Ggfs. wiederholen sich also die Szenen, als damals herauskam, dass man manche 290er auf 290Xer rauf"patchen" konnte.
Gruß