News GeForce GTX 1060: Konter zur AMD Radeon RX 480 bereits Anfang Juli

Iscaran schrieb:
Was möchtest du uns eigentlich sagen ?
Was mich persönlich noch interessieren würde ist...wieviel W kann man mit nur 4GB gegenüber 8GB sparen ?
GDDR5 ist doch so energiehungrig...wenn man also nur die Hälfte des Speichers drauf hat spart man doch bestimmt auch einiges an Watt ?

Vielleicht hatte AMD anfangs gar nicht vor die Karte mit 8GB zu liefern, aber weil die Chipleistung auch für 8GB VRAM gut ist hat man es dann doch gemacht mit dem Effekt dass die Leistungsaufnahme eben noch mal 10-20 W hochschnellt...

Zieht man das nämlich ab wäre man bei <150W. Schade dass es quasi keine Test der 4GB Karten gibt.

Garnix kann man da sparen, sind die gleichen Speichermodule verbaut.
Nur bei der 4GB version sind Teile im BIOS deaktiviert. Wenn man Lotto spielen mag, kann man versuchen es auf 8GB zu softmodden Gerüchten zufolge.
Normalerweise ist das aber Ausschussware, die da noch billig verwertet wird.
 
mahama schrieb:
Garnix kann man da sparen, sind die gleichen Speichermodule verbaut.
Nur bei der 4GB version sind Teile im BIOS deaktiviert. Wenn man Lotto spielen mag, kann man versuchen es auf 8GB zu softmodden Gerüchten zufolge.
Normalerweise ist das aber Ausschussware, die da noch billig verwertet wird.

Das war doch noch nie so meines wissens ? Da sind natürlich nur Halb soviele Speicherzellen auf der Karte ?!?! Woher hast du die info das dieselben 8GB auf der Karte sind nur 4GB "deaktiviert"...

Daher spart man auch etwas Watt.

EDIT: GDDR5 zieht schon einiges. Leider kann ich diese Grafik jetzt nicht auf die RX 480 ummünzen...aber es gibt bestimmt jemand der das kann.
http://ht4u.net/news/31687_nvidia_s...fnahme_bei_kuenftigen_hbm-speicher-techniken/
 
Del Torres schrieb:
Man kann einen Hardwarekauf auch zu emotional sehen... ich kaufe meine Karten übrigens nach der Attraktivität der Boothbabes auf Messen...

Und ich hab die gtx1080 weil ich den Typ in Lederjacke cooler fand als den AMD Heini mit viel zu grossem sacko und dem Blumenstrauss in der brusttasche.
 
issenia schrieb:
Die sollen mal lieber die Bugs bei Pascal bereinigen, als irgendwelchen 3. Paper-Launch zu bringen.
Nvidia GeForce GTX 1070 und GTX 1080: User beklagen Bootfehler bei schnellen 1440p-Monitoren:

http://www.tomshardware.de/nvidia-geforce-gtx-1070-1080,news-256097.html

https://forums.geforce.com/default/...ot-correctly-past-330-mhz-dl-dvi-pixel-clock/
Bekannter von mir ärgert sich gerade mit seiner GTX 1080 herum.

Wer noch die DVI-Dual-Link-Schnittstelle verwendet ist doch selbst schuld. Ich hätte den Anschluss längst beerdigt.
 
Fruuky schrieb:
Und ich hab die gtx1080 weil ich den Typ in Lederjacke cooler fand als den AMD Heini mit viel zu grossem sacko und dem Blumenstrauss in der brusttasche.

Ich benutz auch kein Google mehr, weil Marissa Mayer von Yahoo die geilere Vorlage ist als Sundar Pichai und Larry Page von Google. :lol:
 
Unbekannter-Nr1 schrieb:
Tipp an die Leute mit schlechter Verfügbarkeit:

In den nächsten PC-Laden laufen, eine Karte aus dem Regal nehmen, an die Kasse gehen und bezahlen. Leider haben viele schon vergessen, das es noch Geschäfte gibt, in denen man durchaus auch solche schlecht verfügbaren Artikel problemlos kaufen und mitnehmen kann.

Wird sicher nicht in jeder Stadt funktionieren, ich hatte allerdings keine Probleme.
Jo, aber da muss man doch mehr bezahlen....,da sowas wie Mitarbeiter und Ladenmiete bezahlt werden muss...
Die Kaufkraft vor Ort bestimmt das eigene Gehalt und wenn die Einzelhändler zumachen verliert man den wahrscheinlich größten Arbeitgeber und somit die Kaufkraft.

Gesendet von meinem Huawei P8 Lite
 
forumuser05 schrieb:

Was ist denn an der Betrachtung jetzt falsch?
Einfach von beiden komplett falsch gemessen? Zumal bei CB auch extra nichts von Peak-Verbrauch angegeben ist, sondern gerade auch über die Spiele gemittelt kann man schon von einem durchschnittlichen Verbrauch, bei Alltagssituationen ausgehen.
Zu Thema Testmethoden:
Auch auf die Gefahr hin, mich bei einigen Unbeliebt zu machen, möchte ich es dennoch halten wie einst Lü Bu We;
„Angesichts eines großen Vorteils nicht von dem abweichen, was man für recht erkannt hat, ist unbestechlich.“
Lǚ Bùwéi, chinesischer Kaufmann, Politiker und Philosoph, Frühling und Herbst des Lü Bu We
Ganz ehrlich? Ja!
Ja, es ist extra wieder einmal weder Peak- noch dedizierter Verbrauch über PCIe ausgewiesen, darüber hinaus wird schlicht alles gemittelt und im Durchschnitt angegeben. Zumindest ich persönlich halte die TDP des Gesamt-Systems nicht nur für hochgradig verfälschend, sondern heutzutage nichts weniger als irreführend. Abgesehen davon ist sie seit Jahren praktisch obsolet – und spätestens mit aufkommen von Funktionen wie GPU Boost oder OverDrive™ bestenfalls als optionale Angabe geeignet.

Nicht böse gemeint, aber Du verfällst immer wieder zurück in‘s selbe Muster, die TDP des Gesamt-Systems als Maßstab zu nehmen. Man kann überhaupt nicht sagen, wie viel des Verbrauchs tatsächlich von der Karte resultieren, sofern man nur an der Steckdose misst, da die Systeme a) stets viel zu sehr schwanken und b) kann man den Herstellern schlicht ihre TDP nicht glauben – daß hat zumindest die Vergangenheit gezeigt, da zwischen Datenblatt und Wirklichkeit erhebliche Diskrepanzen herrschen können. Chipsätze und Prozessor können teils extrem in der Last schwanken und tun dies auch.

Gesetzt den Fall, man würde lediglich den Verbrauch über die 6- & 8-Pin-PCIe-Stecker messen – was zugegeben schon ein erheblicher Schritt in die richtige Richtung wäre. Trotzdem würde einem dennoch viel Verbrauch ungemessen entgehen, was ja die RX 480 als prominentes Beispiel gezeigt hat. Du kannst den exakten Verbrauch einer Karte schlicht nicht eruieren, wenn nicht expliziert und dediziert gemessen.

Kommen wir zur TDP …
Vorrausgeschickt; Jeder weiß, daß Rage und Fury absoluten Stromhunger haben – und daraus hat AMD auch meines Wissens nie einen Hehl gemacht …

Wie dem auch sei, allein über die PCIe-Stecker zieht die GTX 980 als Referenz schon 144W von den angeblich eingehaltenen 165W, dazu kommen noch einmal 42W extra über PCIe. Wobei diese Ergebnisse ermittelt wurden mit einer Karte, dessen Tester nicht müde wurden, unentwegt zu erwähnen, es handle sich aufgrund der Spannungen und Taktraten wohl um ein »Golden Sample«. Die Praxis-Werte dürften demnach sogar jene noch toppen …
Was bekommen wir? Richtig, einen Verbrauch unter typischer 3D-Last generiert von Spielen von insgesamt 185,70W. Überschreitet dieser Wert die TDP von 165W?

Ich hab‘s schon im vorigen Beitrag erwähnt, daß viele seriöse Reviewer wie TechPowerUp, HT4U & Co seit Jahren am PCIe die Karte selbst messen. Das tun selbst kleinere Seiten wie PCGH, HardwareLuxx, 3DGuru usw. Nur dadurch, daß dies hier nicht gemacht wird, kommen die schwarzen Schafe so gut wie immer besser weg.
Ich hoffe Du kannst nun vielleicht selbst ein Urteil fällen.

Lektüre:
TomsHardware.de • Nvidia GeForce GTX 980 und GTX 970: Maxwell mit maximaler Power? (Seite 12 ff.)


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet: (Typo)
Luxmanl525 schrieb:
Hallo zusammen,

@ sacgbö



Mein Lieber Freund, nenn mir doch bitte mal nur einige dieser "vielen" Spiele, von denen du behauptest, schon unter Full HD würde 4 Gbyte Ram voll belegt werden. Du findest mich in gespannter Erwartung. Ich bezweifle, daß du mehr als 3 Spiele Aufzählen kannst.
Wohlgemerkt, Full HD, gelle?

So long...

CoD BO3, The Division, Doom, Miros Edge, Tomb Raider, Skyrim mid Mods, Mittel Erde Mordorsschatten. Außerdem sagte ich, dass es jetzt nur manchmal kritisch ist, aber bald deutlich kritischer sein werde. Gegen das Beispiel mit der 680 konntest du ja auch nicht viel einwenden, weil es einfach stimmt. 3GB sind wirklich wenig selbst eine gtx 970 hat mehr...
Natürlich in einem anderen Preissegment wäre es eine andere Geschichte aber für 200-300 Euro ist das lächerlich.
Soll übrigens kein gtx 1060 Bashing sein es gibt ja noch die 6Gb Version....
 
GTX 1060 6GB 369€? Nein Danke.
Kann mir dann gleich eine Gebrauchte 980ti Kaufen
 
Candy_Cloud schrieb:
Mal sehen.

3GB oder 6GB Speicher schreien jedenfalls nach einem kleineren Speicherinterface. Außer es würde eine aktuell unübliche Speicherbestückung gewählt (ungleich große Chips).

Aus der Erfahrung wären 192Bit hier üblich. Das wäre dann immerhin mehr als bei der GTX960 mit 128Bit. so kann die Karte also immer noch schnell(er) den Speicher ansprechen.

Wenn es davon dann auch Versionen mit kompakter Kühlung gibt, dann könnte das wieder eine super HTPC Karte werden.
Dafür darf dann auch H.265 und HDCP 1.2 nicht fehlen.

Könnte mir vorstellen das ein 960 Sli Gespann eine 1060 trotzdem nass macht,
vorausgesetzt ist natürlich die 4 GB Variante
 
GrooveXT schrieb:
Mal ehrlich...natürlich können heutige Spiele mehr als 4GB ausnutzen, aber das heißt doch lange nicht das sie es müssen oder es brauchen.

Ich kann jedes x beliebige Programm so programmieren, dass es direkt zum Start einfach alles in dem RAM lädt und solange genug Speicher da ist, ist es gerade bei exklsuiver Nutzung auch kein Problem. Ob das notwendig oder sinnvoll ist, steht auf einem anderen Blatt. Wenn ich 8GB VRAM habe kann ich natürlich die Texturen des ganzen Levels in den RAM laden, bis er kotzt. Es würde natürlich auch reichen nur die gerade benötigten Texturen vorzuhalten und bei Bedarf den Rest aus dem Arbeitsspeicher des PCs nachzuholen.
So oder so werden 8GB im FUllHD Bereich in absehbarer Zeit nicht benötigt. Vor allem nicht wenn wir über Mittelklasse GPUs reden. Das man 4GB Karten künstlich in die Knie zwingen kann ist genauso möglich wie man auch 8GB Karten in die Knie zwingen kann. Das hat aber für den Alltags Betrieb keine Relevanz.
4 GB VRAM bei Full HD? Kein Problem bei Warhammer
 
Zurück
Oben