News GeForce GTX 1060: Konter zur AMD Radeon RX 480 bereits Anfang Juli

Krautmaster schrieb:

Woher bezieht zb eine R9 295X ihren Saft?
http://www.tomshardware.com/reviews/radeon-r9-295x2-review-benchmark-performance,3799-16.html
450W und 500W TDP

Aber ja, ich bin daccord mit dir das InGame eher 120W zu sehen sein werden. Dass die Karte deutlich effizienter als eine GTX 970 sein MUSS ist angesichts 14 zu 28nm irgendwie logisch...

Besser; HardwareLuxx: „Warum die 500 Watt Verbrauch der Radeon R9 295X² kein Problem sind
Hier wird erheblich mehr in‘s Detail gegangen …


In diesem Sinne

Smartcom
 
Man sollte sowieso nicht blind nach den TDP Werten gehen, aber es stimmt ja schon das bei der letzten 28nm Generation die AMD Karten mehr Saft gezogen haben.
 
KTelwood schrieb:
Endlich erste Benchmarks und Preise.
Die R480 wird 260-290€ Kosten und in echten Spielen fast so schnell sein wie eine Zotac GTX970, deren Preissohle nunmehr mit 250-300€ also erreicht wurde und sich nicht mehr ändert

http://www.pcgameshardware.de/AMD-P...-Benchmarks-1200010/galerie/2598131/?fullsize

Wie oft denn noch.. Diese Grafik ist hier schon paar mal rum gegangen und angeblich fake und auch verglichen mit einer 970 die stark overclocked ist.. :)
 
Drummermatze schrieb:
Wer Regler bedienen kann, hat da keine Probleme.
Wer so argumentiert Regler und Einstellungen runter zu drehen das es keine Probleme mit dem Speicher gibt, der kann auch gleich 640x480 und alles auf low runterstellen und sagen "Wozu ne neue Karte, meine RivaTNT reicht noch vollkommen aus"
 
KTelwood schrieb:
Endlich erste Benchmarks und Preise.
Also hat die RX 480 zum selben Preis fast die Leistung einer GTX 970, ist dafür aber neuer. Also nicht mit 199 USD und GTX 980 Leistung. Was ich selbst auch nicht erwartet hätte.

Okay, okay, wenn es fake sein soll, habe ich nichts gesagt.
Ich bin ja auf den Fall gespannt, falls um 15 Uhr hier der Test erscheint.

@TPD-Werte: Es zählt doch immer noch, was die Karte tatsächlich verbraucht, aus der Steckdose zieht, in Wärme umsetzt.
 
Angeblich Fake? Ist gleichzeitig auch Angeblich Echt ^^

Würde zumindest passen. Der Markt bezahlt 250-300€ für eine Karte die so schnell ist wie die GTX970, und genau das wird wohl für die R480 Verlangt.

Nividia kündigt derweil für juni die GTX1060 an die ja dann wohl ins gleiche preis und Leistungssegment fallen wird. Dann hat man einfach nur 2 Nachfolger für die "Standardempfehlung Gaming" GTX970.
Ergänzung ()

Gleich sind wir wohl ganz schlau. ^^
 
borizb schrieb:
Das macht die 970 dann obsolet. Aber 50€ Aufpreis für 3GB RAM mehr,
die auch nur mit 192 Bit angebunden sind... das ist schon happig.
Naja, wenn die Karte zum gleichen Preis wie die 480 gleich schnell ist,
hat Nvidia sein Ziel ja erreicht. Nächste Woche wissen wir mehr.

Die 970 ist seit dem Bekanntwerden des Speicherbugs obsolet.
Hat mit der R9 390X einen absolut gleichwertigen Gegner und bekommt nun eine volle Breitseite mit der RX 480.

;)

Ich hab es gestern schon geschrieben.
Wenn alle GTX 970 Käufer, die damals nVidia der Lügen bezüchtigt haben, aber zu faul waren was zu unternehmen, EIER in der Hose hätten, wäre spätestens in einer Halben Stunde der Wechsel ins Lager der nicht Lügner zu vollziehen.
 
Drummermatze schrieb:
Der verhindert lediglichg die Nutzung der letzten 0,5GB und beschreibt erst die schnell angebundenen 3,5GB.
Wenn ein Spiel 4GB verbraucht, verbraucht es 4GB.

Falsch, die Nutzung wird verhindert, selbst wenn das Spiel mehr verbrauchen würde, sonst könntest du, je nach Nutzungsszenario, auch deine Aussage der Ruckelfreiheit knicken.
 
[eTP]AcCiDeNt schrieb:
Wenn alle GTX 970 Käufer, die damals nVidia der Lügen bezüchtigt haben, aber zu faul waren was zu unternehmen, EIER in der Hose hätten, wäre spätestens in einer Halben Stunde der Wechsel ins Lager der nicht Lügner zu vollziehen.
Man kann einen Hardwarekauf auch zu emotional sehen... ich kaufe meine Karten übrigens nach der Attraktivität der Boothbabes auf Messen...
 
Benji18 schrieb:
xD vor ca. 3 Jahren hat man mir gesagt 2GB VRAM reichen locker für die nächsten 3- 4 Jahre, man sieht wie der VRAM Verbrauch explodiert ist ...

außerdem eine 970 xD sorry aber wer sich wissentlich so eine Karte kauft wo vornherein klar ist wenn NV keinen Bock mehr hat das der Treiber die letzten 512MB Blockt dann wird das gehäule losgehen wenn die Spiele eine ruckelorgie werden ;-)

Man sollte frei nach dem Motto "Hubraum ist durch nichts zu ersetzen außer noch mehr Hubraum" darauf schauen das die Karte genug VRAM hat im nachhinein ärgert man sich dann wenns knapp wird und da die Entwickler sowieso immer mehr in den Ram schaufel weil (ist ja genug vorhanden siehe 8GB Karten) wird man sehen wie es in 1 - 2 Jahren aussieht.


Wo ist denn der RAM Verbrauch explodiert? Witcher 3 belegt bei mir in 1440p (in 4k nicht wesentlich mehr) sagenhafte 2,5-3GB Vram und das in allerhöchsten Einstellungen. Doom benötigt noch weniger, selbst in 4K.

GTA V war bei mir in 1440p (alles voll aufgerissen) auch noch nicht über 4GB, obwohl es laut Anzeige in den Settings mehr verlangt. Natürlich gibt es Spiele, die mehr fordern. Wenn ich mir diese aber angucke, erkenne ich grafisch keinen Grund, der dies rechtfertigt. Und wenn ein Spiel einfach so viel wie möglich in den Speicher schiebt, dann kann es auch 8GB oder mehr füllen, nur heißt das nicht, dass man mit einer 4GB Karte dadurch nicht mehr flüssig spielen kann.


Ich habe die GTX 970 übrigens 2014 zu Release gekauft, lange bevor die Speicher-Geschichte bekannt wurde. Und es war zu der Zeit ne super Karte! Und sie hat bis heute in 1080p einfach alles flüssig wiedergeben können und war auch bis zum Schluss eine Karte, die in 1080p nicht durch ihren Speicher limitiert wurde.
 
Del Torres schrieb:
Man kann einen Hardwarekauf auch zu emotional sehen... ich kaufe meine Karten übrigens nach der Attraktivität der Boothbabes auf Messen...
War zwar als Scherz gemeint, aber man kauft doch nach FPS, Preis, Verbrauch (Abwärme, Lärm). Und dabei taucht die VRAM-Menge gar nicht auf. Ich würde sogar eine Karte mit 1 MB VRAM kaufen, wenn sie genug FPS liefern würde.
 
Witcher 3 ist schon ein Jahr alt. Es gibt genug Beispiele für aktuellere Spiele.
Anhang anzeigen 566159
Das hab ich gestern hier schon gepostet, ist Rainbow Six auf 1080p.
 
Smartcom5 schrieb:
Erstmal großes Kompliment für die Auflistung/Aufstellung! Guter Beitrag!

Ich bin ja an vernünftigen Diskussionen und Problemauflösungen interessiert.
Das macht auch Sinn, was du schreibst, nur kam meine bisherige Skepsis eben von aktuellen Karten und das ist gar nicht gegen AMD gerichtet, nur ist mir aufgefallen, dass bei aktuellen Karten bei ähnlicher TDP-Angabe am Ende auch ein ähnlicher Verbrauch herauskommt, egal ob nV oder AMD.
Wie gesagt, das soll auch nicht einfach nur ne platte Behauptung, wie leider hier öfter im Forum, sein, sondern einfach eine Betrachtung von verschiedenen Ergebnissen, denn unter "nominalen Verbrauch" verstehe ich den durchschnittlichen Verbrauch bei Alltagsbelastungen, also beim Spielen, nicht beim Benchmarken... und genau dazu hatte ich halt mehrere Tests gefunden, die folgendes gezeigt haben:

verwendete aktuelle Beispielkarten (da genannte TDP dicht bei einander und bewusst auch die effizienteste AMD genommen, keine 275W Karte!):

GTX 980: genannte TDP -> 165W
R9 Nano: genannte TDP -> 175W

(also genannter Wert der Nano 10W höher, aber nach deiner Erläuterung wäre bei Alltagsbelastungen der Verbrauch der Nano tendenziell sogar unter der GTX 980 anzufinden, richtig?)

und jetzt hab ich halt dazu verschiedene Reviews gesehen:
1. CB -> Gesamtsystem analysiert beim Spielen (Durchschnitt bei 4 Spielen)
https://www.computerbase.de/2016-06...s-gesamtsystems-durchschnitt-von-vier-spielen
Ergebnis:
Gesamtsystem mit 980 -> 235W Verbrauch
Gesamtsystem mit Nano -> 249W Verbrauch (also fast haargenau die 10W mehr, die die TDP oben auch höher angegeben wurde, sogar 14W mehr)

2. PCGH -> hier wird angeblich mit einem speziellen PCIe-Extender geziehlt nur der GPU-Verbrauch gemessen:
http://www.pcgameshardware.de/Nvidi...598/Specials/Benchmark-Test-Video-1195464/#a5
Ergebnis (einzelne Spiele):
980 -> 165, 163, 160 W (entspricht etwa der 165W TDP Angabe)
Nano -> 195, 198, 195 W (ist im Schnitt sogar 20W oberhalb der 175W TDP Angabe!)
auch hier verbraucht die Nano beim Spielen also eher nicht weniger, sondern mehr als die 980

Was ist denn an der Betrachtung jetzt falsch?
Einfach von beiden komplett falsch gemessen? Zumal bei CB auch extra nichts von Peak-Verbrauch angegeben ist, sondern gerade auch über die Spiele gemittelt kann man schon von einem durchschnittlichen Verbrauch, bei Alltagssituationen ausgehen.

PS: Der Verglich ist übrigens nicht nur bei den Karten so, auch bei einer Fury X (275W) und einer 980TI (250W) klappt der Vergleich gut, bei keiner von beiden Seiten verbraucht die Fury X weniger, tendenziell eher mindestens die 25W mehr, die auch die TDP bezogen auf die 980TI höher angegeben ist
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Witcher 3 ist schon ein Jahr alt. Es gibt genug Beispiele für aktuellere Spiele.
Anhang anzeigen 566159
Das hab ich gestern hier schon gepostet, ist Rainbow Six auf 1080p.

Dann zeig mir mal ein Bild mit einem Echtzeit Overlay ingame bitte. Denn im Menü des Spiels kann viel angezeigt werden. Bei GTA V wird mir da auch jede Menge Bedarf mitgeteilt, der ingame aber nicht eintritt!

Außerdem mag Witcher 3 schon ein Jahr alt sein, hat aber eine riesige, offene Welt und steht grafisch den aktuellen Titeln nicht nach, wobei man einen Shooter nicht mit einem RPG mit offener Welt vergleichen kann.

Oder anders gesagt: Warum schafft es ein sehr gut aussehender Titel mit großer, offener Welt einen geringen VRam Verbrauch zu erzeugen, während es ein sehr gut aussehender Titel mit relativ begrenzter Welt nicht schafft?

Ich kenne und zocke dein Spiel übrigens nicht, also vergib mir, falls ich es falsch beurteile und es auch eine große, offene Welt haben sollte.
 
Zuletzt bearbeitet:
Achim_Anders schrieb:
Jaytie, das hört dann nicht auf. ...

Das dachte ich mir grade auch schon während des Tippens ... wirklich aufhören wird es dadurch nicht. :rolleyes:
 
Svendrae schrieb:
Dann zeig mir mal ein Bild mit einem Echtzeit Overlay ingame bitte. Denn im Menü des Spiels kann viel angezeigt werden. Bei GTA V wird mir da auch jede Menge Bedarf mitgeteilt, der ingame aber nicht eintritt!
Ich kann dir heute Abend mal OSD von Afterburner anmachen und dir einen Screen nachreichen.
 
Del Torres schrieb:
Man kann einen Hardwarekauf auch zu emotional sehen...
Was hat das mit Emotionen zu tun wenn ein Hersteller einen (bewusst) bescheisst, um dann noch zur Krönung per Erklärung ("Feature") für dumm verkaufen will?
Das ist an Dreistigkeit kaum zu überbieten, und dann gibt es noch Kandidaten die so ein Vorgehen auch noch verteidigen?

Wenn man mir ein Auto mit 200PS verkauft, mir allerdings verschweigt das ein montierter Reifen leider nur ein Notlaufrad ist, der nur bis 80km/h ausgelegt ist und mir hinterher man sagt "Seien sie doch froh das sie 4 Reifen haben anstatt 3" dann machst du was? Vom Kauf zurücktreten oder die Karre behalten?
 
Chillaholic schrieb:
Ich kann dir heute Abend mal OSD von Afterburner anmachen und dir einen Screen nachreichen.

Wenn du mir sagst, dass der Verbrauch ingame wirklich mit den Angaben übereinstimmt, dann glaube ich es dir auch ohne Screen. Ich sehe nicht hinter jedem Forenuser einen Verschwörer :-)
 
Zurück
Oben