Test VRAM bei Grafikkarten: Das Ende von 4 GB für Modelle über 300 Euro naht

Status
Für weitere Antworten geschlossen.
Thrawn. schrieb:
Enifach weniger selbst die Welt malen wiese dir gefällt und mehr mit Fakten glänzen wäre dochma lwas oder ?

Dann fang mal damit an.

Thrawn. schrieb:
Ziemlich provokant mal wieder...

Was ist daran provokant? Das sind im Kern und zu einem guten Teil deine eigenen Aussagen.
Oder ist es provokant weil du noch nie eine AMD Karte besessen hast und hier im Brustton der Überzeugung Unfug darüber verbreitest?

Thrawn. schrieb:
Und die Einzigen der hier verbissen mit geballtem Unwissen das letzte aufbäumen vom AMD Pleitegeier begleiten sind die die eh nie ne NV kaufen würden selbst wenn die 970 16GB Vram hätte..

Und nochmal voll auf die Polemik Tube drücken:D
Bash, bash, bash.
 
Meinst du das in 3 Jahren die DX11 Treiber noch so relevant sein werden? Ich denke eher, dass AMD das einfach aussitzt und nicht mehr wirklich auf DX11 Renderpfade setzt weil sich das Problem mit DX12 quasi selbst löst.
 
Meine ich schon, btw ist das wieder ne neue Diskussion ,denn wer hat in 3 Jahren noch seine 970 oder 390 ?..
Anderereseits zocken wir JETZT, und jetzt funzen die DX11 Treiber bei NV gut und bei AMD Naja.
Das bei DX12 wird AMD besser sein etc Spekuzeugs bringt mir JETZT garnix..

Wadenbeisser schrieb:
@Thrawn.
Ein kastriertes Speicherinterface, nur halb so viel Speicher, ein eingeschränkter DX12 Support und einen stärkeren Einbruch bei höheren Auflösungen die im großen und ganzen hauptsächlich dem geringeren Strombedarf gegenüber stehen würde ich jetzt nicht als besseres Gesammtpaket bezeichnen.

Dabei geht es nur um Marketing.

Ich sehe das anders, SI und 3,5GB Vram funktionieren sehr gut wie man an den Benches und zufreidenen Usern sieht. AMD hat noch schlechteren DX12 support bzw muss sich erst zeigen wer hier die Hausaufgaben am besten geamcht hat.
Die 8GB Vram sind in meinen augen Grösstenteisl Placebo da beiden Karten in 1440P und mehr die Rohleistung fehlt.
 
Zuletzt bearbeitet:
Mr.Seymour Buds schrieb:
Wadenbeisser,

Nein. Hab ich nicht. :D Aber den Imageschaden kannst Du nicht abstreiten. Darüber hinaus sind gerade bei geizhals 4 von 6 GPU von AMD; davon 2 mit 8 GB Speicher. Und das sage ich als bekennder Nvidia Kunde (hatte seit der seeligen 550ti 'Fermi' nichts mehr von den Roten Brigaden... :^)

Bei der aktuellen Grafikkarten Top 10 sind 5 von 10 Karten von nvidia.
http://geizhals.de/?o=8
2 sind ne GTX970, 2 eine GTX960 (immerhin mit 4 GB) und eine ist ne GTX980 Ti, zudem ist es lediglich eine Momentaufnahme udn sagt nichts über die Verkaufszahlen aus. Es hat ihnen also offensichtlich nicht wirklich geschadet.
 
Zuckerwatte schrieb:
Meinst du das in 3 Jahren die DX11 Treiber noch so relevant sein werden? Ich denke eher, dass AMD das einfach aussitzt und nicht mehr wirklich auf DX11 Renderpfade setzt weil sich das Problem mit DX12 quasi selbst löst.

Genau.

Ich habe das schonmal in einenm anderen Fred gepostet.

Was ist heute günstiger und was wird wohl in 3 Jahren mit DX12 und Vulkan besser sein?

EVGA GeForce GTX 980 SuperClocked ACX 2.0
Rechenleistung: 5186GFLOPS (Single), 216GFLOPS (Double)
4GB Ram
Preis: € 478,47

KFA² GeForce GTX 970
Rechenleistung: 3494GFLOPS (Single), 146GFLOPS (Double)
Ram 4GB ,Achtung! Nur 3.5GB performant nutzbar
Preis: € 309,80

Gigabyte Radeon R9 390 Gaming
Rechenleistung: 5248GFLOPS (Single), 656GFLOPS (Double)
8GB Ram
Preis: € 309,60
 
Reowulf schrieb:
Was ist daran provokant? Das sind im Kern und zu einem guten Teil deine eigenen Aussagen.
Oder ist es provokant weil du noch nie eine AMD Karte besessen hast und hier im Brustton der Überzeugung Unfug darüber verbreitest?

Ich hatte eine Radeon 9700, also neue Games und Demos (ja die gabs da noch) rauskamen war das Problem dasselbe wie heute, die liefen erstmal nicht Rund. Schade das AMD nicht aus fehlern mal lernt.
Bin dann zur Geforce 6800 Ultra und seitdem Glücklich.
 
Die 8GB Vram sind in meinen augen Grösstenteisl Placebo da beiden Karten in 1440P und mehr die Rohleistung fehlt.
Es gibt Graphik-Features, wie höher aufgelöste Texturen, die vornehmlich Platz in DRAM belegen und kaum/keine Rohleistung oder Speicherbandbreite kosten.
 
Thrawn. schrieb:
Meine ich schon, btw ist das wieder ne neue Diskussion ,denn wer hat in 3 Jahren noch seine 970 oder 390 ?..

Hattest du nicht gesagt, dass du eine GTX580 5 Jahre lang in betrieb hattest?

Meine GTX 260 läuft btw. immer noch im Zweitpc und als Testkarte. Die GTS450 und 2 GTX 570Phantom habe ich allerdings im Bekanntenkreis weitergegeben. Soweit ich weiß laufen die auch noch und werden auch zum Spielen genutzt. (dota2, D3, Bf3 etc)

Meine 290x (wenn sie nicht stirbt) wird es wohl auf Dauer so ergehen wie zur zeit der GTX260.

Also die Antwort auf deine Frage: Ich und eventuell auch ein paar mehr Leute.
 
Thrawn. schrieb:
Meine ich schon, btw ist das wieder ne neue Diskussion ,denn wer hat in 3 Jahren noch seine 970 oder 390 ?..
Anderereseits zocken wir JETZT, und jetzt funzen die DX11 Treiber bei NV gut und bei AMD Naja.
Das bei DX12 wird AMD besser sein etc Spekuzeugs bringt mir JETZT garnix..



Ich sehe das anders, SI und 3,5GB Vram funktionieren sehr gut wie man an den Benches und zufreidenen Usern sieht. AMD hat noch schlechteren DX12 support bzw muss sich erst zeigen wer hier die Hausaufgaben am besten geamcht hat.
Die 8GB Vram sind in meinen augen Grösstenteisl Placebo da beiden Karten in 1440P und mehr die Rohleistung fehlt.

Ähm nein, die 3,5 GB funktionieren nur so lange zufriedenstellend wie nvidia ne treiberseitige extra Behandlung mit macht und/oder die restlichen 512 MB der 4 GB nicht genutzt werden. Seit wann ist es ein Plus Punkt nicht das nutzen zu können was da ist?
AMD hat zudem definitiv nicht den schlechteren DX12 Support sondern bietet lediglich nicht die zusätzlichen Funktionen an. Bei grundlegenen Funktionen wie async compute versagen ihre aktuelle Architekturen hingegen auf ganzer Linie, wodurch wieder eine Sonderbehandlung fällig ist. Auch das kann man wohl kaum als Plus Punkt bezeichnen. Die effektivere CPU Nutzung der DX11 Treiber haben wiederum herzlich wenig mit DX12 zu tuen.

Um es zusammenzufassen, nvidia ist für diejenigen nett die ihre Karte nur recht kurz nutzen, die Radeons für Langzeitnutzer.

Zum Thema wer hat seine Karte noch nach x Jahren.....meine 290x ist aktuell im zweiten Jahr und ich sehe keinen Grund sie zu tauschen. Andere nutzen ihre Karten noch deutlich länger weil das Geld ganz einfach an anderen Stellen besser aufgehoben ist und die Karte erst getauscht wird wenn auch eine Reduzierung der Grafik Einstellungen nichts mehr bringt.
 
Zuletzt bearbeitet von einem Moderator:
Thrawn. schrieb:
Ich hatte eine Radeon 9700, also neue Games und Demos (ja die gabs da noch) rauskamen war das Problem dasselbe wie heute, die liefen erstmal nicht Rund. Schade das AMD nicht aus fehlern mal lernt.

Enough said.

Seit einer 9700 keine Ahnung von den Radeons, aber hier vorsprechen wie der Experte. Wenn denn man bei den Radeons auch heute das Problem hat, dass sie "nicht rund liefen", wieso schreibt dies dann keine Fachzeitschrift, bzw. wieso sind denn dann die momentanen Benchmarks so, dass die Radeons ihre gleich teuren nVidia-Pendants erreichen/überholen?

Du bist ein Troll, dazu noch einer von der übelsten Sorte und ich werde bei deinen nächsten Provokationen anfangen dich bei der Moderation zu melden. Die hätte deine Beiträge eigentlich schon vor ein paar Seiten zu den Fischen versenken sollen.
 
Soso.. Also cih hatte stetig Kontakt mit aktuellen Radeons, meistens wenns probleme gab bei Kollegen und Freunden, ich weiss wovon ich schreibe.

Dei Benches will ich sehen, die die ich kenne da sind die Nvidia vor denen der AMD Karten in derselben Klasse.
Bitte verdreh doch nicht so die Realtität. Was soll auch sonst dabei rauskommen wenn man Uralte Kamellen ständig Rebrandet ?

melde was du willst, nur weil ich andere Meinung bin lol, nennt sich freie Meinungsäusserung.
Danke für die Beleidigung, sieht man bestimmt gerne bei den Mods..



@Wadenbeisser:Ende 2010 bis Mitte 2015 wars mit der GTX 580

Ich gehe davon aus das man Mittelklassekarte öfter tauscht als High-End wobei da jeder anders ist. Mittelklasse muss man halt früher anfangen sachen runterzustellen, das mag ich garnet.
 
Zuletzt bearbeitet:
@Nai

Soll ich dir was sagen?

Ich hab 4 davon.

1 mal Crossfire 2x R9 390x von Sapphire in meiner Workstation.

und

1 mal Crossfire 2xR9 390 ohne X von Sapphire in meinem Virtual Reality PC den ich gerade zusammengebaut habe.

Ich hab gestern mit 3DMark gebencht.

2x390 - Firestrike 18012 Punkte
2x390x - Firestrike 20614 Punkte

Da ist ne Titan nen Kinderspielzeug dagegen.

4k Gaming - Ein Traum
 
Zuletzt bearbeitet:
Was sagt den der Frameverlauf zu den Mikrorucklern ? Sry aber con SLI/CF halte ich nix. Eben deswegen kaufe ich mir ja Karten mit sehr schnellem Single Chip.

Und die Titan X ist eh schon von den stark Werks OC 980Ti überhalot worden..
 
Mit Mikrorucklern hab ich keine Probleme.
Tearing stört mich --> deshalb VSYNC.

Nachteile hat es auch. Man braucht nen richtig gutes Netzteil und viele ordentliche Lüfter im Case.
Es gibt leider auch eine Titel wo der CF Support nicht ganz so toll ist. (Elite Dangerous und Elder Scrolls Online fallen mir da spontan ein)

Nachtrag:
Ich muss noch dazusagen das ich bei den 390x den Speicher auf 1680 mhz gestellt hatte.
 
Zuletzt bearbeitet: (Nachtrag)
Ähm nein, die 3,5 GB funktionieren nur so lange zufriedenstellend wie nvidia ne treiberseitige extra Behandlung mit macht und/oder die restlichen 512 MB der 4 GB nicht genutzt werden. Seit wann ist es ein Plus Punkt nicht das nutzen zu können was da ist?

Ich sehe den Sinn ebenfalls sehr fraglich an. Es ist ja nicht nur, dass dieses 8. Segment langsamer ist. Sondern erschwerend kommt hinzu, dass das 8 und das 7. Segment sich eine Cache-Anbindung und ein Cache-Segment teilen. Verwendet man nun Daten aus allen Segmenten, wird deshalb und wegen dem Interleaved Memory Layout von GPUs das 7 Segment zum Flaschenhals und bremst dadurch auch die Segmente 1 bis 6 ab. Hinzu kommen noch weitere Probleme wegen dem Caching. Verwendet man nur Daten aus dem 8. Segment, so ist dort der Cache nur 256 kibyte groß - in den übrigen Segmenten jedoch 1756 kibyte. Dadurch werden die Zugriffe auf das 8 Segment noch einmal zusätzlich verlangsamt.
 
Zuletzt bearbeitet:
Thrawn. schrieb:
@Wadenbeisser:Ende 2010 bis Mitte 2015 wars mit der GTX 580

Ich gehe davon aus das man Mittelklassekarte öfter tauscht als High-End wobei da jeder anders ist. Mittelklasse muss man halt früher anfangen sachen runterzustellen, das mag ich garnet.

Ich denke das kannst du dir getrost aus dem Kopf schlagen, eher ist es anders herum.
Die kleineren Karten werden vor allem gekauft weil man nicht allso viel Geld ausgeben kann oder will und da ist es nur logisch das sie länger behalten werden.
Die highend Karten kaufen sich vor allem diejenigen die das Geld haben und mit max. Details spielen wollen, entsprechend schnell dürften sie wieder abgestoßen werden und die nächste Karte ist fällig.
 
Thrawn. schrieb:
Dei Benches will ich sehen, die die ich kenne da sind die Nvidia vor denen der AMD Karten in derselben Klasse.
Bitte verdreh doch nicht so die Realtität.

So, dann zeige uns mal deine Realtität.
Zeig uns die Benches in denen 'die Nvidia vor denen der AMD Karten in derselben Klasse" sind.
 
Von 2003 -> 2007 haben wir - laut deinem Diagramm - aber keine Vervierfachung.
Bin nur zu faul das Diagramm zu ändern. 256GB 2003 zu 2007 dann 1GB würde stimmen. Die 8800GTX fällt aus der Reihe.

Ab 580 3GB und Titan X 12GB stimmts wieder. :rolleyes:

Wer weniger kauft im High End muss eben mit den Konsequenzen leben.
 
Die GTX 580 3GBgabs ja zu Andang garnet.
Das eine kommt wusste auch keiner leider..

Gebe dir aber recht !
 
David0912913500 schrieb:
Diese sogenannten "Zocker" auf Steam die noch in 1366x768 spielen, sind dann wohl Laptop-User oder Arbeitslose die kein Geld für einen 100€ Full HD Monitor haben. Denn sich selbst als PC-Gamer schimpfen und dann eine Low-End Grafikkarte mit einem absolut veralteten 720p Monitor zu betreiben finde ich schon SEHR amüsant.

Hört sich stark nach jemand an der zu viel Taschengeld bekommt :)
Ich als Familienvater bin also kein zocker wegen dem alten phenom 2 und 22 Zöller der kein full HD hat.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben