News GeForce GTX 1060: Konter zur AMD Radeon RX 480 bereits Anfang Juli

Drummermatze schrieb:
Ach Gott, wie konnte ich nur die ganze Zeit mit 3,5GB VRAM auskommen...:freak:
Ist ja fürchterlich. :rolleyes:
Ich spiele in 3440x1440 und nur ein einziges Spiel verbraucht über 3GB. Und das ist CoD BO3, welches bekanntermaßen ein VRAM Fresser ist.
3GB reichen DICKSTENS aus für FullHD.
Und alle die zu doof zum Regler bedienen sind, können sich ja die 6GB Variante kaufen.
Klar kontert NVidia. Und die 1060 wird wie immer etwas teurer aber auch etwas schneller sein in Benchmarks, weshalb die meisten zu dieser greifen werden. Die 480 ist ja nun nicht gerade ein OC Wunder und liegt nur knapp über einer 970.

xD vor ca. 3 Jahren hat man mir gesagt 2GB VRAM reichen locker für die nächsten 3- 4 Jahre, man sieht wie der VRAM Verbrauch explodiert ist ...

außerdem eine 970 xD sorry aber wer sich wissentlich so eine Karte kauft wo vornherein klar ist wenn NV keinen Bock mehr hat das der Treiber die letzten 512MB Blockt dann wird das gehäule losgehen wenn die Spiele eine ruckelorgie werden ;-)

Man sollte frei nach dem Motto "Hubraum ist durch nichts zu ersetzen außer noch mehr Hubraum" darauf schauen das die Karte genug VRAM hat im nachhinein ärgert man sich dann wenns knapp wird und da die Entwickler sowieso immer mehr in den Ram schaufel weil (ist ja genug vorhanden siehe 8GB Karten) wird man sehen wie es in 1 - 2 Jahren aussieht.
 
Zuletzt bearbeitet:
Da gibts kein Geheule... der treue NV Fan wird dann natürlich wieder eine NV Karte kaufen, wenn die 970er nicht mehr reicht...
 
Morrich schrieb:
Man sieht es ja jetzt schon in einigen Spielen, die die 3,5GB der Karte auslasten. Da ruckelt es dann derb vor sich hin, obwohl die FPS eigentlich ein flüssiges Spiel erlauben sollten. Die Frametimes sind dann einfach im Eimer.

Das die Frametimes im Eimer sind sieht man an dem Beispiel hier :

http://www.gamestar.de/hardware/gra...vram_problematik,861,3082694,4.html#far-cry-4

Dann kann man genauso gut ein Multi GPU Setup verwenden wenn die Frametimes so unrund sind.
 
Eine Überraschung gibt es dabei bereits: SLI wird auch beim kleinen Pascal-Ableger eingeschränkt, bei der GTX 1060 soll dieses gar nicht mehr unterstützt werden.

Satt! 250 / 300 Euro für halbe Sachen. Naja, Käufer haben sie allemal und die nVidias sind doppelt so schnell, erkennt der nVidia Jünger ja an der Kartennummer ... 1060... mehr als doppelt so schnell wie eine 480... Logo!
 
forumuser05 schrieb:
Kann man nur hoffen, dass der CB-Test ein komplett anderes Bild zeigt. Wenigstens oberhalb der R9 390 sollte sie schon liegen..., von 390X oder gar drüber war ja die ganze Zeit eigentlich die Rede ... und dann noch OC obendrauf

denke die Leistung wird pro Shader nur geringfügig steigen. Und mit 2304 zu 2816 Shader (Hawaii) is man schon ne Stufe drunter. 1266 Mhz machen das allein über den Takt nicht weg. Würde die Karte wie die GXT 1XXX Serie mal eben 40% schneller als der Vorgänger takten wäre das ein leichtes, aber 1266Mhz is nicht gerade viel für 14nm.

Hoffentlich stimmt das mim OC nicht. Mit 1600 Mhz sähe die Performance schon besser aus, gerade bei dem Preis.
 
@Krautmaster

ganz ehrlich, wir wissen doch alle das die Orginal Kühllösungen nicht sonderlich gut sind, ich bezweifle das die von AMD ausgesuchte Lösung wirklich besser ist. Daher gehe ich davon aus das die Referenzkarten eher mau zum OC geeignet sind, aber die Custom Modelle werden sicherlich ein wesentlich besseres Potenzial haben.

Außerdem würde ich mal behaupten AMD wird die Karte am Sweet spot betreiben um möglichst viel effizienz rauszukitzel, wie man immer wieder sieht interessiert niemanden wieviel eine OC Karte an WATT verbläst sonder es wird immer wieder drauf verwiesen was die Herstellerangabe vom Referenzmodell ist.
 
Zuletzt bearbeitet:
nur ein Mensch schrieb:
Und du machst weiter...
Den seriösen Beitrag, bei dem die 1060 mit 6GB als verkrüppelt im Sinne von "zu wenig VRram", müsstest du mir mal bitte zeigen. Soweit ich das gesehen habe bezog sich die "zu wenig VRam" Aussage immer auf die 3GB Variante.
weiter mit falschen Behauptungen aufräumen? stimmt ... weder ist die neue eine "Heizung", noch ist die GTX 1060 direkt wieder eine Krüppelkarte ... aber für dich:
Vitec schrieb:
Aber 299$ für die 6GB Krüppelkarte im vergleich zu einer 480 ist ja mal nur ein Witz .
Also bitte selbst nachschauen, bevor du vorverurteilst ;)


Phoeni schrieb:
Also bei der Review bin ich mir über die Settings eh nicht ganz im klaren. Die Abstände der R9 390 zur 980 sind ja teils gravierend, im Vergleich zu den Diagrammen hier auf CB teils mehr als doppelt so hoch??? Auch in absoluten Zahlen hat die 980 teils deutlich mehr als hier auf CB, bei der 390 ist es genau andersherum. Und dann die Deltas zw. der 480 und der 390, mal ist die 480 deutlich schneller, mal die 390 deutlich?! Gab es das in der Vergangenheit mal, das sich Vorgänger und Nachfolger so unterschiedlich verhalten? Und nur 1,5% OC, das sind ja grad mal 20Mhz, das schaffen doch alle Karten nur durchs rütteln am Gehäuse...
Darauf spekuliere ich auch noch, dass die Angaben nicht ganz korrekt sind ...
Öfter sind hier schon auf verschiedenen Seiten mit verschiedenen Quellen etwa 1320 MHz als OC Wert ohne Spannungserhöhung genannt wurden.
Siehe auch hier, bei der "vorerst letzten News bzgl. der 480 vor Release": http://wccftech.com/amd-rx-480-overclocks-well-retailers-in-stock/
und das wären immerhin 5%, obwohl auch nicht gerade berauschend, selbst wenn es "nur" beim Referenzdesign so sei sollte.

Naja gucken wir mal, CB wird ja bald Aufschluss über solche Details geben
 
lixxbox schrieb:
Ich spiele hauptsächlich Stardew Valley - 6 GB sollten es da schon sein. :-)

Oh Mann. Mit ner 1060 6GB ist das doch unspielbar. Vlt lieber auf die RX 490 oder die 1080Ti/Titan warten?

:lol:
 
Zuckerwatte schrieb:

Ja klar das war mir Bewußt :D

Habe mich aber Explizit auf das Referenzdesign bei Release bezogen, schließlich gibt es auch eine GTX 680 mit 4GB genauso wie eine GTX 580 mit 3GB.

Die 7970 hatte sogar auch eine Version mit 6 GB.

Aber das ist ja in den Fällen auch vom Custom Partner abhängig.

Schließlich hatte Nvidia ab der ersten Titan eine Sperre an alle Customhersteller verhängt mehr Speicher als das Referenzdesign zu verbauen, außer Nvidia hat es explizit erlaubt, siehe GTX 960.
 
forumuser05 schrieb:

Da muss mir Vitec doch glatt einen Strich durch die Rechnung ziehen. Einmal mit Profis...

Allerdings ist sein Beitrag auch nicht wirklich seriös, da er nur (s)eine(?) Meinung ohne grundsätzliche Begründung kund gibt und im Grunde noch nicht mal klar erkennbar ist, worauf das "Krüppelkarte" sich bezieht (das sogenannte "schiefe Speicher Interface", fehlender SLI Support *war eine Seite zuvor Thema* oder doch die VRam Menge)

Hast du Glück gehabt ;-p
 
forumuser05 schrieb:

Dann kann man ja von einem reellen Verbrauch von 90-100W ausgehen, denn mir wurde erklärt, dass AMDs TDP Angaben ja gar nicht den tatsächlichen Verbrauch wiederspiegeln, das sei nur bei nVidia der Fall.
Erklärungsversuche:
nVidia‘s TDP-Angaben geben meistens das wieder, was die Karte nominal verbraucht.
AMD gibt dem hingegen an, was entsprechende Karten technisch verbrauchen könnten – das ist ein erheblicher Unterschied!

AMD-Beispiel:
Eine HD 7850 hat laut AMD eine offizielle TDP von 130W. Verbrauchen könnte sie maximal 150W (75W PCIe-Slot + 75W 1x 6-Pin=150W).
Effektiv verbraucht sie jedoch nominal um 88W, was lediglich 58,6% der TDP entsprechen. Unter 3D-Last wie Spielen bleibt sie daher weit unterhalb der angegebenen TDP, wobei sie unter Volllast (Furmark) max. 144W braucht.
Sie bleibt daher a) unter 3D-Last deutlich unterhalb der offiziellen ebenso wie technisch möglichen TDP und b) selbst unter Voll-Last wird zwar die offizielle, nicht jedoch die technisch maximal mögliche TDP überschritten.

nVidida-Beispiel:
Eine GTX 560 Ti hat laut nVdidia eine TDP (→ MGCP) von offiziell 210W. Verbrauchen dürfte sie jedoch aufgrund der Konfiguration max. 225W (75W PCIe-Slot+75W 2x 6-Pin=150W).
Effektiv verbraucht sie jedoch nominal um 213W, was bereits 102% der TDP entsprechen. Unter 3D-Last wie Spielen überschreitet sie also schon die offiziell angegebene TDP, wobei sie wiederum unter Voll-Last (FurMark) max. 258W verbraucht.
Sie überschreitet daher a) unter 3D-Last bereits die offizielle TDP und b) unter Voll-Last wird nicht nur die offizielle, sondern auch noch die technisch maximal mögliche TDP weit überschritten (+22,8%).

Unterschied:
Zu beachten ist, daß die "TDP" welche nVidia angibt, keine ist, sondern eine MGCP! Die Bezeichnung „Maximum Graphics Card Power“, kurz MGCP, stammt von nVidia und bezeichnet die unter Normalbetrieb zu erwartende maximale Leistungsaufnahme. Unter speziellen Bedingungen lässt sich unter Umständen aber eine noch höhere Leistungsaufnahme erreichen. Daher ist die Maximum Graphics Card Power nicht mit der TDP gleichzusetzen.
Der von AMD angegebene TDP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme, da AMD lediglich angibt, was die Karte konstruktionsbedingt an Verbrauch nützen könnte – wobei diese für gewöhnlich recht konservativ ist.

Fazit:
Sofern zwei gleichwertige Grafikkarten (AMD/nVidia) mit einer ähnlichen oder identischen TDP gegenüberstehen, bspw. mit einer TDP-Angabe von 150W, wird die nVidia-Karte typischerweise diese 150W bereits auslasten – die AMD-Karte wird mitunter erheblich darunterliegen.

Beim Kauf ist diese vermeintliche TDP-Angabe bei nVidida-Karte nicht nur missverständlich, sondern schlicht irreführend, weil mit dieser Angabe bereits der Nominal-Verbrauch angegeben wird, nicht der maximale Verbrauch. Das bedeutet, wenn die Karte rechnerisch laut "TDP" gerade so eben vom Netzteil gepackt wird, kann diese im Zweifelsfalle in der Praxis das Netzteil schlicht auf Überlast fahren lassen.
Darüber hinaus ist es mit der gewöhnlich so hochgelobte Effizenz von bekannten Marken nicht allzu weit her, wenn diese im Betrieb die vermeintlich geringe TDP überschreiten.
-
tl;dr: Grün hat nichts mit Effizienz zu tun!

Lektüre:
HardTecs4U: ht4u.com • 55 DirectX-11-Grafikkarten im Test (Seite 36 ff.]
HardTecs4U: ht4u.com • Gigabyte GeForce GTX 560 Ti 448 im Test
HardTecs4U: ht4u.com • Reale Leistungsaufnahme aktueller Grafikkarten von AMD und NVIDIA im Vergleich


In diesem Sinne

Smartcom

Troll-Tip:
  • Man verzeihe mir die möglicherweise zwecks Erläuterung erhebliche simplifizierung der jeweiligen Sachverhalte.
  • ht4u.com ist hier kein Cherry picking, sondern dem Fakt geschuldet, daß ich die Verbrauchs-Werte der jeweiligen Grafikkarte – nicht des Gesamt-Systems – angeben wollte;
    Das tut beispielsweise ht4u → PCIe-Adapter, Zangen-Ampèremeter (Zangenstrommesser) & Co. Oder TomsHardware, oder …
  • Ich kenne die einzigartige 500W-Problematik der Radeon R9 295X², man erspare mir Details.
  • Erwähnte Beispiel-Exemplare wurden wahllos gewählt. Es ging mir formal um die Veranschaulischung;
    UnterschiedTDP versus MGCP
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Smartcom5 schrieb:
Erklärungsversuche:
nVidia‘s TDP-Angaben geben meistens das wieder, was die Karte nominal verbraucht.
AMD gibt dem hingegen an, was entsprechende Karten technisch verbrauchen könnten – das ist ein erheblicher Unterschied! ...

Toller Beitrag. Dem ist nichts hinzuzufügen.
 
  • Gefällt mir
Reaktionen: Smartcom5
Die Unterschiede zwischen AMD und NV Angaben wären doch vielleicht mal einen CB Artikel wert, dann könnte man bei Leuten, die das nicht direkt verstehen auf den Artikel verweisen. Ist imho glaubwürdiger als Forumsangaben.
 
  • Gefällt mir
Reaktionen: Smartcom5
Das Köpfe einschlagen erreicht langsam seinen Höhepunkt. Die Tests müssten doch in ein paar Minuten online gehen oder?
 
Zuletzt bearbeitet: (typo)
Interessanter Beitrag, das sollte wirklich mal einen großen Artikel wert sein. :cool_alt:
 
  • Gefällt mir
Reaktionen: Smartcom5
Um 15:00 UTC +1, also ca 40 Min. ;)
 
Jaytie, das hört dann nicht auf. Dann geht es um die GTX 1060 und danach geht es dann um die RX 490 (anscheinend P10 Vollausbau)
 
Weil dein Nvidiatreiber die Nutzung des Speicherbereichs mit langsamer Anbindung verhindert, verbrauchen deine Spiele nicht mehr

Der verhindert lediglichg die Nutzung der letzten 0,5GB und beschreibt erst die schnell angebundenen 3,5GB.
Wenn ein Spiel 4GB verbraucht, verbraucht es 4GB.

außerdem eine 970 xD sorry aber wer sich wissentlich so eine Karte kauft wo vornherein klar ist wenn NV keinen Bock mehr hat das der Treiber die letzten 512MB Blockt dann wird das gehäule losgehen wenn die Spiele eine ruckelorgie werden ;-)

Die Karte ist von Oktober 2014. Da hat noch kein Mensch über das VRAM Thema gesprochen weil es schlicht nicht bekannt war. Außerdem, welche Ruckelorgie? Ich schrieb doch, dass kein Spiel außer eins die 3,5GB Grenze geschweigedenn die 3GB Grenze überschreitet. Wer Regler bedienen kann, hat da keine Probleme.
 
Zurück
Oben