Test VRAM bei Grafikkarten: Das Ende von 4 GB für Modelle über 300 Euro naht

Status
Für weitere Antworten geschlossen.
oldmanhunting schrieb:
Hier verteidigt doch keiner, dass NVidia gelogen hat.
Es wird von den Leuten die eine GTX 970 besitzen gesagt, das die auch mit den 3,5GB eine tolle GPU für Full HD ist und das die Leute sehr zufrieden mit der GPU sind.

In Deinem Fall bin ich mir eigentlich sicher, dass Du auch eine GTX 970 mit vollen 4GB nie gekauft hättest, weil dort NVidia drauf steht.

Genau das versuche ich auch die ganze Zeit zu sagen..
 
Thrawn. schrieb:
Das du Probleme ignorierst und mit keine ahnung titulierst sagt einiges aus, ist wohl besser wir lassen das..

Im übrigen kann man NV Karten sehr wohl undervolten, ist nur etwas aufweniger und für AMD Fans wohl zu schwierig..

Es geht im übrigen um STOCK, ändern kann man viel. Wie seihts denn mit dem OC aus bei aMD ? Düster..
Tests belegen das die 390er ca 100 W mehr ziehen als die OC 970er, einfach mal in die PCGH reinschauen.

Sehr schade das Leute wie du sich die Welt machen wiese ihnen gefällt..
Dir ist kalr das deine 980Ti von NVIDIA ist ?..
Ergänzung ()

Wer PN zitiert dessen Charakter offenbart sich sehr schön vor Allen..


Geh nochmal zur Schule (Physik 8. Klasse Mittelstufe) und lerne den Unterschied zwischen Leistung und Verbrauch. Danach machst Du eine technische ausbildung und Du merkst, daß wenn man dann alle erhalten Werte in einen vernünftigen zusammenhang bringt, merkst Du was für einen unglaublich unfundierten Mist Du von Dir gibst.
Auch wenn du jetzt erstmal angepisst bist, les' bitte weiter... ;)

Zur Zeit der 8800GTS 512MB habe ich diese gegen meine ältere X1950XTX gebencht. 3 Monate lang. Die konkreten Ergebnisse habe ich leider nicht mehr. Aber die sind kontra AMD, da wirst Du wohl nichts einzuwenden haben.
Mir ging es hauptsächlich uim den realen Verbrauch, die 1950XTX war rund 50% langsamer als die 8800GTS, bei annähernd gleichen Peakwerten unter Last (Maximalwerte in W)
Mit einem alten analogen 1 Phasen Stromzähler habe ich den Verbrauch (Realwerte in Wh) pro Bench abgelesen und notiert.
Das hat etwa eine Woche in Anspruch genommen. Die weiteren zweieinhalb Monate habe ich von der täglichen Laufzeit 1 Stunde den Desktop/Surfen-Verbrauch (Realwerte in Wh) und eine Stunde Gaming-Verbrauch (Realwerte in Wh) notiert.


Von den 100% Effizenzunterschied mit den Maximalwerten als Berechnungsgrundlage - was hier und heute immernoch bei sämtlichen Benchmarks passiert - bleiben im realen Betrieb "nurnoch" etwa 30% übrig. Bei, wie gesagt 1h Desktop/Surfen und 1h Zocken.
Wenn jemand mehr zockt als alles andere, hat er sowieso andere Probleme als seine Stromrechnung. :D
 
combatfun schrieb:
Die Besitzer der VRAM Krüppel versuchen sich ihren Fehlkauf halt schön zu reden :D

Ja, wahrscheinlich so wie es auch die AMD Jünger machen, mit Ihren Stromfressern [Achtung Ironie], um mal auf Deinem Niveau zu antworten. Warum sollte sich jemand, der sich eine Hardware kauft, diese schön reden. Wenn er zufrieden ist mit seiner Hardware, warum soll er es dann nicht sagen dürfen, nur weil Du es nicht verstehst? Glaubst Du wirklich, das wenn sich jemand eine Hardware kauft und er damit nicht zufrieden wäre, das er dann schreibt das er zufrieden sei, nur um seinen Kauf zu rechtfertigen. Das wäre nicht nur Dumm, sondern auch Betrug an sich selbst, weil er mit etwas auskommen muss, das nicht seinen Erwartungen und Leistungen entspricht. Manchmal hilft es, auch mal die Brain.exe zu benutzen und diese nicht nur Gassi zu tragen.
 
EchoeZ schrieb:
Zur Zeit der 8800GTS 512MB habe ich diese gegen meine ältere X1950XTX gebencht. 3 Monate lang. Die konkreten Ergebnisse habe ich leider nicht mehr. Aber die sind kontra AMD, da wirst Du wohl nichts einzuwenden haben.
Mir ging es hauptsächlich uim den realen Verbrauch, die 1950XTX war rund 50% langsamer als die 8800GTS, bei annähernd gleichen Peakwerten unter Last (Maximalwerte in W)
Mit einem alten analogen 1 Phasen Stromzähler habe ich den Verbrauch (Realwerte in Wh) pro Bench abgelesen und notiert.
Das hat etwa eine Woche in Anspruch genommen. Die weiteren zweieinhalb Monate habe ich von der täglichen Laufzeit 1 Stunde den Desktop/Surfen-Verbrauch (Realwerte in Wh) und eine Stunde Gaming-Verbrauch (Realwerte in Wh) notiert.


Von den 100% Effizenzunterschied mit den Maximalwerten als Berechnungsgrundlage - was hier und heute immernoch bei sämtlichen Benchmarks passiert - bleiben im realen Betrieb "nurnoch" etwa 30% übrig. Bei, wie gesagt 1h Desktop/Surfen und 1h Zocken.
Wenn jemand mehr zockt als alles andere, hat er sowieso andere Probleme als seine Stromrechnung. :D

Die Provokation ignoriere ich mal.
ich bin da ganz gut dabei ,trotzdem danke für die fürsorglichen tips

Dei REchner sind NUR zum zocken an und dann eben unter Last, somit ist der Effizienzvorteile erheblich höher als 30%. Nur weil es bei DIR anders ist, stelle es bitte nicht als Allgemeingültig hin..
Auch ist der GTX 970 Rechner min 10h am tag unter Last, da zocken mehrere Personen mit.

Zum Surfen und arbeiten exisitieren Tablets und Laptops im Haushalt ;)


Zum Thema, meine 970 passt perfekt zum 1050 P Monitor und ich halte die Rampanikmache für etwas übertrieben. Der Vram muss immer auch zur Leistung passen, ist ungenügend Rohleistung da bringt mehr Vram nur was im Prospekt vom MediaMarkt..
Im Fall der 390 ist es so das es manchmal ein wenig bringt, ABER wenn die Games durch die Bank 6GB+ Vram in 1440P fressen, ist die karte eh zu langsam für spielbare FPS..
 
Zuletzt bearbeitet:
zeedy schrieb:
Ja okay, aber ich kann mir ehrlich gesagt kaum vorstellen wie man Maxwell undervolten soll, wenn das Power Gating eh so gut funktioniert und die GPUs immer so viel Spannung wie nötig haben. Wie gesagt, ein Test wäre schön, ich frage mal Igor Wallossek von Toms Hardware, ob das sinnvoll ist. Er kennt sich da bestens aus.

Aber wie dem auch sei, eine BIOS Modifikation würde ich persönlich nicht machen, auch wenn es einfach ist. Meine Garantieansprüche würde ich wegen ein paar Watt weniger unter Volllast nicht gefährden wollen. Und wie viele von 100 Maxwell Besitzern würden sowas tun? Ich schätze 0 bis 1 ^^ ich habe eher den Eindruck sie versuchen auch das letzte Hertz rauszuquetschen, obwohl man eigentlich so effizienzgeil ist.

Optimieren wird auch in absehbarer Zeit noch eine Menge bringen. Egal ob AMD, NV oder Intel. Nur so wird gewährleistet, dass auch das schlechteste Stück Silizium den Takt unter allen Umständen hält.

Mir ist schon klar, dass nur ein Bruchteil der PC Nutzer überhaupt daran Interesse zeigt, die Hardware optimal anzupassen. Aber das ist doch Unabhängig davon, ob man jetzt eine Maxwell oder Granada im Rechner hat.

Im Normalfall ist eine Modifikation des BIOS gleichzusetzen mit einer Modifikation über Afterburner/Crimson etc. was die Garantieansprüche angeht. Das lasse ich jetzt nicht als Argument gelten. Fun Fact: EVGA gibt sogar bei Custom BIOS noch Garantie, wenn der Schaden nicht darauf zurückzuführen ist.

Und jetzt noch auf das letzte Statement bezogen: Ich persönlich lote immer den Sweetspot aus, für den Spannung und Takt noch linear sind. Natürlich quetsche ich für den Bench auch gerne das letzte Mhz raus, ist doch logisch ;) Aber im Alltag macht das für mich keinen Unterschied, ob die Karte jetzt mit 1450 oder 1500+ läuft. Wobei ich natürlich dennoch ordentlich über den Standardtakt hinaus gehe, UHD fordert eben seinen Tribut.

Und ja, ein Test von offizieller Seite wäre natürlich interessant. Ich persönlich kann hier nur Werte des großen Maxwell Chips geben. In meinem Fall: Alles @ Stock ~1200-1280 Mhz @ 1.199-1.162V abhängig von Temperatur und Auslastung bei 100% Powerlimit (=250 Watt). Mit Custom BIOS und Morpheus: konstant 1200 Mhz (grob ausgelotet) @ ~1.006V -> Maximal 70% Powerlimit (=175 Watt) dabei aktiv gekühlt unter 50 Grad (Heaven)/ ordentliches Semi-Passiv um die 60 Grad (Heaven).

Man kann also gut sehen, wo die Reise hingeht. Bei Interesse gerne mal im HWluxx Ti Thread vorbeischauen :schluck:

Das hat jetzt aber rein gar nichts mit der Topic zu tun (so wie leider Vieles hier geschriebene). Deswegen BTT :hammer_alt:
 
Keine Ahnung was hier wieder losgeheult wird.
Ich finde den Test recht interessant da er letztendlich zeigt das es bereits heute Spiele gibt bei denen die 4 GB zu knapp werden und um das festzustellen nimmt man ganz sicher keine Spiele die nicht einmal in die Nähe dieser Grenze kommen.
Wenn ihr diese Spiele nicht habt, schön für euch aber verlangt nicht das man gefälligst Spiele testen soll die nicht in diesen Grenzbereich kommen.

Auf der einen Seite wird ständig nach hoch auflösenden Texturen geschrieen und auf der anderen Seite wird auch geschrieen wenn dadurch der Speicher der Grafikkarte gesprengt wird....lächerlich.
 
Auf der einen Seite wird ständig nach hoch auflösenden Texturen geschrieen und auf der anderen Seite wird auch geschrieen wenn dadurch der Speicher der Grafikkarte gesprengt wird....lächerlich.
Liegt vermutlich daran, weil nicht alle Menschen gleich sind ;)
 
Nunja aber in dem man nur soclhe Spiele nimmt wird auch ein verzerrtes Bild hergezaubert welches suggerriert das man jetzt unbedingt 8GB Vram braucht und 4GB unbrauchbar sind..
 
@EchoeZ
Was ist denn das für ein schwachsinniger Vergleich? Zwischen dem Release der x1950 XTX und der 8800GTS 512 liegen 15 Monate und die merkt man auch in der Fertigung. der R580+ der Radeon wurde in 90nm gefertigt, der G92 der Geforce in 65nm und hat doppelt so viele Transistoren. Zudem vergleichst du einen DX10 Chip der zweiten Generation mit flexiblen Shadern mit einem DX 9.0c Chip mit einer festen Pipeline.

Wie verzweifelt muss man sein um mit so einem Vergleich anzukommen?
Ergänzung ()

Nai schrieb:
Liegt vermutlich daran, weil nicht alle Menschen gleich sind ;)

Schon klar aber warum schreien dann mit Vorliebe die gleichen bei beiden Themen rum?
Hoch aufgelöste Texturen sind nunmal Speicherfresser. Das Lustige am Grafikspeicher ist ja das man keinen Unterschied merkt solange er reicht, er einen aber in den Hintern beißt sobald er zu klein wird und dabei extreme Auswirkungen auf die Performance hat. Das fänngt mit häufigeren und stärkeren Nachladerucklern an und endet mit einem massiven Performance Einbruch wenn er viel zu klein wird und dies nicht mehr mit einem häufigeren Nachladen nicht mehr ausgeglichen werden kann.
 
Thrawn. schrieb:
Dei REchner sind NUR zum zocken an und dann eben unter Last, somit ist der Effizienzvorteile erheblich höher als 30%. Nur weil es bei DIR anders ist, stelle es bitte nicht als Allgemeingültig hin..

ICH stelle was als allgemeingültig hin? Und das schreibst gerade DU... ok, war n Versuch wert.
Und der markierte Teil.. Du hast wirklich andere Probleme als der Verbrauch einer Graka. Und nebenbei, auch beim Dauerzocken liegen keine 100% Last an, die man 1:1 als Verbrauch umrechnen kann ;)
 
Mich hätte mal der Ramverbrauch von Rome2 und Atilla interessiert. Dir dürften den Ram auf höchsten Einstellungen ja nahezu komplett füllen, oder irre ich mich dar?
 
Thrawn. schrieb:
Nunja aber in dem man nur soclhe Spiele nimmt wird auch ein verzerrtes Bild hergezaubert welches suggerriert das man jetzt unbedingt 8GB Vram braucht und 4GB unbrauchbar sind..

Den erhält man eher wenn man das Geschreibsel jener ließt die immer schreien das der Speicher voll ausreichen würde und es keine Probleme dadurch gibt denn wie man in dem Test sieht gibt es durchaus Spiele bei denen die 4 GB grenzwertig sind und nichts anderes sagt der Test aus. Wenn man diese Spiele nicht besitzt und auch sonst keine die so viel Speicher forden, schön für ihn aber das ändert nichts daran das es solche dennoch bereits heute gibt und der Speicher Hunger kommender Spiele ganz sicher nicht nachlassen wird.
Viel Grafikspeicher war schon immer eine Investition in eine lange Nutzungszeit.
 
Verstehe den Affentanz hier auch nicht so recht. Schon Mitte 2015 war klar, dass man keine GPU mehr unter 4 GB kaufen sollte.

Und jetzt haben wir schon fast 03/2016. Da würde ich 4 GB absolut als Standard oder von mir aus auch als "Mainstream" bezeichnen...In wenigen Wochen ist die Vorstellung der Nvidia Pascal Architektur und ich denke da wird dann 6 GB als Standardspeicherkonfig für Mitte 2016 angepeilt (zB als Nvidia GTX 1060).
 
Die GTX 970 ist an sich eine gute Karte. Schaut nur wie folgt aus:
Wenn die R9 390 noch 1080p darstellen kann in recht hohen Details macht die GTX 970 das Gleiche in niedrigen Details oder einer niedrigeren Auflösung. Kuschelt sie eben mit der GTX 960......:o

*umdrehundweglauf*
 
Wie mich diese Anfeindungen in Foren doch nerven, konstruktiv ist da selten was. :rolleyes:

Wo liegen die eigenen Interessen? Was möchte ich ausgeben? Wie wichtig ist mir dass ich alles auf Max zocken kann?

Ich nutze auch eine 970 und ich habe keine Probleme mit Rucklern, aber ich Spiele auch nicht mit "allem auf Max" in tripple AAA state of the art Titeln. Derzeit zocke ich meist auf 1980x xxxx und es läuft. Sicherlich gibt es bessere Karten als die 970 welche für einige "inakzeptebel" ist.

Aber es fahren ja auch nicht alle höchstmögliche motorisierung eines Autos..

Klar könnte man auch die höchste motorisierung eines Autos fahren und alle anderen die kleiner motorisiert sind beschmunzeln..
 
SethDiabolos schrieb:
Die GTX 970 ist an sich eine gute Karte. Schaut nur wie folgt aus:
Wenn die R9 390 noch 1080p darstellen kann in recht hohen Details macht die GTX 970 das Gleiche in niedrigen Details oder einer niedrigeren Auflösung. Kuschelt sie eben mit der GTX 960......:o

*umdrehundweglauf*

Bei einer solchen Aussage würde ich auch ganz schnell *umdrehundweglauf*:rolleyes:
 
@Mr.Seymour Buds
So drastisch würde ich es nicht ausdrücken da es einfach zu vielen Spiele gibt wo die 4 GB reichen oder die Karte für die hohen Einstellungen dann ganz einfach zu lahm wären aber das der Speicher Bedarf von neuen Spielen ganz sicher nicht sinken wird ist nun wirklich nichts neues. Wer alle Nase nach die Karte wechselt kann gern mit "ausreichend" kalkulieren aber wer seine Karte länger nutzen will sollte auf genügend Puffer beim Grafikspeicher achten.
 
Ja ich denke da auch an den Wiederverkaufswert. Wer kauft denn Ende 2016 noch eine 960 mit 2 GB gebraucht? Genau, niemand. Und steigende Auflösungen gab es schon immer (was auch gut ist). Kein Mensch braucht bei 4K Auflösung noch Kantenglättung oder ähnliches. Wo soll man denn bei so vielen Pixeln noch Kanten sehen? 640x480, da waren solche Features etwas feines. Heute? Ab ins Geschichtsbuch. Was ich sagen will: Viel Speicher war schon immer gut. Nvidia wird hier im Laufe des Jahres nachlegen (müssen). AMD liegt bei der Speicherausstattung ja im Moment klar vorne. Nicht umsonst hat sich die R9-Serie so gut verkauft. Außerdem hat Nvidias Image mit dem 3,5 GB "Betrug" heftige Kratzer bekommen. Imageschaden ist ja bekanntermaßen noch schlimmer, als defekte oder verbuggt Produkte/Treiber.
 
Zuletzt bearbeitet:
Thrawn. schrieb:
Nunja aber in dem man nur soclhe Spiele nimmt wird auch ein verzerrtes Bild hergezaubert welches suggerriert das man jetzt unbedingt 8GB Vram braucht und 4GB unbrauchbar sind..

Witzig, dass Du hier das verzerrte Bild erkennst, weil es sich eben nur um einem Benchmark handelt. Das dieses verzerrte Bild auch auf den "Verbrauch" zurtifft, widersprichst Du. Nicht witzig, eigentlich merkwürdig ;)
 
Verzerrtes Bild ? Die Verbrauchsunterschiede sind Fakt, auch wenn duse dir gerne schönrechnest..



Mr.Seymour Buds schrieb:
Ja ich denke da auch an den Wiederverkaufswert. Wer kauft denn Ende 2016 noch eine 960 mit 2 GB gebraucht? Genau, niemand. Und steigende Auflösungen gab es schon immer (was auch gut ist). Kein Mensch braucht bei 4K Auflösung noch Kantenglättung oder ähnliches. Wo soll man denn bei so vielen Pixeln noch Kanten sehen? 640x480, da waren solche Features etwas feines. Heute? Ab ins Geschichtsbuch. Was ich sagen will: Viel Speicher war schon immer gut. Nvidia wird hier im Laufe des Jahres nachlegen (müssen). AMD liegt bei der Speicherausstattung ja im Moment klar vorne. Nicht umsonst hat sich die R9-Serie so gut verkauft. Außerdem hat Nvidias Image mit dem 3,5 GB "Betrug" heftige Kratzer bekommen. Imageschaden ist ja bekanntermaßen noch schlimmer, als defekte oder verbuggt Produkte/Treiber.

Merkwürdig das beim auf die geringe Speicherbestückung der NV Karten draufhauen immer die 4GB High-End Fury(X) aka Overclockers Dream vergessen wird zu erwähnen..
Nvidia Image Kratzer ? Bei den MD Fans evtl ,der Rest kauft wie eh und jeh weiter, sieht man ja auch bei Geizhals..
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben