Test 2 GB vs. 4 GB im Test: Wenn GTX 960 und R9 380 schon heute der VRAM ausgeht

Aber innerhalb eines Spiels habt ihr die Details beibehalten? Also nicht bei zb. FarCry die 2/4 GB oder die 960/380 mit unterschiedlichen Details?
Weil ansonsten da ja nichts vergleichbar wäre.
Daswäre ja mal reichlich sinnlos.
Wir haben die Einstellungen anhand der R9 380 4GB ausgelotet. Die Einstellungen haben wir dann auf alle Karten übernommen. Das geht halt, da sich die R9 380 und die GTX 960 sehr ähnlich verhalten.

@Test-Autor
Eine genaue Aufschlüsselung der Grafikeinstellungen für jedes Spiel wäre toll.
Änderungen gegenüber maximalen Details mit FXAA
ACU: Schatten Hoch
FC4: alle GameWorks-Features aus
GTA V: Schatten auf höchste nicht AMD/NVidia-Einstellung
Mittelerde: FXAA+Camera, Vegetation Range Hoch#

Ich schließe mich TNM an und hoffe, dass für zukünftige Vergleichstests jeweils die 4GB-Modelle herangezogen werden. Die 2-GB-Karten sind wegen der geringen Preisdifferenz aus meiner Sicht uninteressant - also raus damit aus den Rankings.
Mit der Umstellung auf das neue Testsystem im nächsten Jahr werden die 2-GB-Versionen der GTX 960 und der R9 380 vollends verschwinden.

Schöner Test, aber das hat man auch schon vor ungefähr 1 Jahr gemerkt, einige dieser Spiele haben ja auch schon paar Monate auf den Buckel. ^^
Mir ist bewusst, dass das nicht die neusten Spiele sind. Aber von denen ist halt bekannt, dass sie recht hohe Anforderungen an den Speicher stellen, darum die Verwendung.

ich seh keinen unterschied in den videos
Du kannst auch in Mittelerde keinen Unterschied sehen?

Man fährt die Karten also mit absicht ins Vram Limit, und sieht dann zu wie sie sich verhalten. Kann man machen. Dann aber pauschal zu sagen 2GB sind zu wenig ist halt doch ziemlich gravierend.
Das haben wir deswegen gemacht, da höhere Texturdetails null auf die Leistung gehen, wenn diese in den Speicher passen. Bei der Rohleistung machen die Texturdetails daher keinen Unterschied. Passen die in den Speicher, wäre die Karte auch mit 512 MB genauso schnell. Darum haben wir das so gemacht. Zudem sind die Texturen zumindest für mich immer die Option, die man mit am letzten herunter dreht. Es gibt finde ich nicht viel was schrecklicher ist, als wenns matsche wird. Davon gibts heutzutage auch bei maimalen Details zu viel.

Edit: Es wäre einfach auch interessant zu wissen, ob die GPU heute in der Lage sind durch die Speicherkompression bei Übertragung, auch im VRam, selbst platz zu sparen.
Die von Nvidia bei Maxwell- und von AMSD bei Tonga/Fiji beworbenen Speicherkompressionen sind nur für die Bandbreite hilfreich, nicht für die Speichergröße.

Edit: Am ehesten würde ich CB noch das Win 8.1 ankreiden. Gut möglich dass gerade bei den Frametimes die ein oder andere Optimierung in Win10 greifen würde.
Der nächste Speichertest kommt mit Windows 10 :)
Die Spiele werden wir dagegen so belassen wie sie sind - höchstens vielleicht Dragon Age austauschen. Wir wissen, wir sich die Spiele bezüglich VRAM verhalten, das ist hilfreich.

Es ist mir halt in letzter Zeit aufgefallen das die Presse sehr abhängig von den Hardwareherstellern ist. So etwas stößt mir bitter auf und kann ich nicht für gut heißen. Hinzu kommt das Nvidia mit erheblichen Finanziellen Mitteln die Presse unter Druck setzt. Viele Dinge werden doch von Nvidia gesponsert und keiner erwähnt es im Artikel.
Ich kann nur für uns sprechen: Uns bezahlt Nvidia kein Geld und versucht da auch keine Stunts mit merkwürdigen Taktiken ;)
 
Zuletzt bearbeitet:
AnfängerEi schrieb:
Stellt man die Details runter, damit man auch mit schwächerer Hardware auf über 60 fps kommt, ruckelt / stottert es dennoch häufig.

Bei welcher Spiele/Hardwarekombi ist das denn so?
 
@HardRockDude
Du hast doch angefangen mit "mir reichen 20-30fps für den Spielspaß" gepaart mit den Worten "die Videos sehen alle gleich und gut aus" mit dem Wortlaut: weiß gar nicht was es da zu meckern gibt.

Wenn man also mit Midrange Karten wie im Artikel die Settings o anpasst, dass man (siehe Videos) min 50% mehr fps hat als es für dich persönlich ausreichen würde, dann verstehe ich nicht warum das später dann auf einmal Quatsch sein sollte und ziehst einen lächerlichen Vergleich mit einer urzeitkarte ran, die nicht nur von der Rohleistung dermaßen hinten an hängt.

Das ist doch nur noch lächerlich. Sry aber das merkste du doch selbst, oder?

Für mich persönlich müssen es schon mindestens 45 fps sein, damit es ein ruhigeres Bild gibt. Besser noch 50.
Wie auch immer. Es ist nun mal leider so, dass selbt wenn man nicht max out spielt, sondern ein paar Details runter dreht (sowie Schatten - haste gut erkannt ;) ) es trotz eigtl annehmbarer fps ruckelt - und zwar mit midrange karten sowohl auch highend. Denn es ist oft ziemlich egal wie viel fps man hat. Weil die Entwickler sich denken das Spiel ansich lenkt ab und man schaut nicht wirklich hin als ob das so arg stören würde. Es gibt aber Gamer, die stören sich daran und es gibt ja auch eh 144 Hz Monitor und wenn man ne Titan verbaut hat, die danna uch die 140 Hz packt, dann merkt man die schlamperei eh nicht mehr.
Ja dann zieht danna uch dein ARgument von weiter oben: Am besten sind halt immer noch die, die erwarten, mit einer mittleren Grafikkarte Highend-Power zu erhalten.

Klingt total bescheuert. Ist es auch
 
Interessanter Test, aber ich schließe mich da einigen Vorrednern an wegen der Ansprüche.
Ich zocke nur ab und zu und muss nicht alles auf High stellen, aber ich bin froh, wenn ich bei "alten" Spielen Crysis, durch downsampling ein bessers Bild habe.

Habe mich letztens für eine R9 270 entschieden mit 2 GB VRAM und werde damit die nächsten 2-3 Jahre locker auskommen.
 
Doktor_Pa1n schrieb:
Ausnahme ist lediglich die Fury Reihe, welche aber HBM VRAM verwendet. Dieser ist mit 640 GB Datendurchsatz pro Sekunde etwa doppelt bis viermal so schnell wie GDDR5 VRAM. Selbst bei 6 GB Belegung, dürften 4 GB HBM also nicht einbrechen.

1. Es gibt keinen "HBM VRAM", entweder HBM oder VRAM (vgl. https://de.wikipedia.org/wiki/Video_Random_Access_Memory). Genau sowenig gibt es "GDDR5 VRAM".


2. Zwischen der Speichergeschwindigkeit und der Datenmenge die abgespeichert werden kann, gibt es keine Kausalität. Wenn ich meine NAS-Netzwerkschnittstelle von 100 Mbit/s auf 1000 Mbit/s aufrüste, kann ich nicht plötzlich 10x mehr Daten speichern, sondern ich brauche nur noch 1/10 der ursprünglichen Zeit zum kopieren der Daten.

Beispiel: Wenn ich nun anstelle von 1TB nun 10TB abspeichern will, geht das nicht. Ich kriege die 1TB nur (deutlich) schneller auf das NAS und nicht anders verhält sich das mit HBM zu GDDR5.

Die Speichergeschwindkeit bei GPUs ist einfach kein Flaschenhals und notfalls kann man dann den Speicher übertakten.
 
ampre schrieb:
Zum Krieg. Denn hat wieder CB mit dem Abschlusskommentar begonnen. Die Schreiben das Maxwell besser ist obwohl hauptsächlich Spiele mit Nvidia Unterstützung getestet wurden. Findest du dass dann ein logische Fazit? Denk mal darüber nach!!!

Sprich wenn CB feststellt, dass die Nvidia Karten in den getesteten Spielen besser sind, dann dürfen sie das nicht auch hinschreiben weil dir die getesteten Spiele nicht schmecken.

Aber man darf dich nicht ins AMD Lager zählen, neeiiin. :rolleyes:

CB hat einen Sack voll aktueller Spiele getestet, die auch tatsächlich gespielt werden. Was soll man denn sonst machen? Nur noch Spiele ohne Gameworks/TWIMTBP/AMD Gaming Evolved Logo testen, weil man dann ja keine "fairen" Ergebnisse bekommt?
Dann kucken wir uns bald wieder nur noch 3D Mark Ergebnisse an, weil keine Spiele übrig bleiben. Praktisch alle AAA Spiele die auch in der Lage sind aktuelle Grafikkarten auszulasten, haben in irgendeiner Form solche Logos.

Ich wüsste auch überhaupt nicht warum CB das tun sollte. Hier geht es ja letztendlich um Kunden-/Kaufberatung. Und für den Zweck ist es schlicht völlig Wurst warum Nvidia hier besser abschneidet. Das Ergebnis zählt und das lautet laut CB: Nvidia macht es hier besser, also erhält der Kunde hier das bessere Spielerlebnis.
Ob das jetzt so ist, weil die Karte besser ist oder weil die Softwaretricksereien dran schuld sind, ist für den Kunden doch egal. Der will für sein Geld schlichtweg das Beste und es ist der Job von CB rauszufinden wo das so ist und dann das auch so zu schreiben.
Was natürlich heißt, dass ich auch erwarte, dass wenn sich die Situation dreht und AMD vorne ist, das auch deutlich so von CB kommuniziert wird. Was soweit ich mich erinnern kann, auch beim letzten Mal zu GTX 480 /HD5870 Zeiten klar der Fall war. Da kam die Thermi Karte nun wirklich nicht glimpflich weg.
 
@AnfängerEi
Leider hast Du nicht verstanden, auf was ich hinaus wollte. Damit ist die Diskussion jetzt hinfällig.
 
WarumAuchNicht schrieb:
Ich finde es auch schade, dass bei der Programmierung eher "geschlampt" wird um so 4GB z.B. zu rechtfertigen.
Irgendwann gab es einen Knackpunkt und das war es dann. Die objektive Grafikpracht ist dabei aber auch nur bedingt gestiegen.
Vor einem Jahr hab ich noch mit ner 580er mit 1,5 GB RAM rumgekräpelt und es lief meiner Meinung nach recht gut. Heutzutage sind landläufig nicht mal 3-4 GB genug ...

4 GB sind für 1080p oder 1440p in den allermeisten Spielen ausreichend, wenn man die Datails maximiert.

Man darf aber auch nicht vergessen, dass die Texturqualität in den letzten Jahren auch enorm angestiegen ist. Man gewöhnt sich leider viel zu schnell daran, aber wenn man dann mal wieder alte Spiele installiert, merkt man einfach sofort, ob die Texturen mit Fokus auf Xbox 360/PS3 (512 MB RAM/VRAM) erstellt wurden oder mit Fokus auf PS4/XboxOne (8 GB RAM/VRAM). Trotzdem sind die Texturen mit 4 GB VRAM in den allermeisten Spielen besser als auf den neuen Konsolen. Deswegen finde ich den Test auch etwas übertrieben. Man verlangt hier von 2 GB Karten bessere Texturen, als von den Konsolen mit bis zu ~7 GB nutzbarem Speicher (vermutlich werden 2-3 GB als reiner VRAM genutzt)

Man muss ja nur mal den Unterschied zwischen z.B. AC BlackFlag/Rogue und Unity betrachten.
Wer Asassins Creed Rogue gespielt hat, der hat gesehen, wie z.B. das Paris aus Unity mit der alten engine und den last-gen Texturen aussieht und wie dann Unity aussah. Dazwischen liegen WELTEN.

Man muss aber bei Unity und Syndicate auf jeden Fall 16x AF im Treiber forcieren, sonst sind die Texturen deutlich schlechter....
http://images.nvidia.com/geforce-co...ing-interactive-comparison-001-on-vs-off.html

Hier mal ein Vergleich zwischen Rogue und Unity an exakt den gleichen Stellen: https://www.youtube.com/watch?v=qszDHrnmy6I
Gute, die Texturqualität kann man jetzt nicht direkt verlgeichen, wegen der YouTube Qualität. Aber man sieht ganz gut, was für nen gewaltigen Sprung wir innerhalb der letzten 2 Jahre "dank" der neuen Konsolen nun hinter uns haben. Da darf dann ruhig mal etwas VRAM genutzt werden...

Rogue sieht am PC übrigens nicht wirklich viel besser aus, als auf den alten Konsolen. Bessere Bildqualität und HBAO+, viel mehr ists aber auch nicht. Alle Assets und Beleuchtungseffekte bleiben (natürlich) nahezu identisch.
https://www.youtube.com/watch?v=Z_ECs6m9lPk
 
Zuletzt bearbeitet von einem Moderator:
@HardRockDude
HardRockDude schrieb:
"schwache Hardware stottert häufig"
DAs ist eine Pauschalaussage die noch dazu nichtsaussagend ist.
Warum stottert schwache Hardaware häufig?
Wenn das Stottern aufhört, je mehr fps man hat, dann könnte man das noch gelten lassen.
Wenn aber trotz über 60 fps das Bild dennoch nicht wirklich flüssig dargestellt wird, dann hat das absolut nichts mit der Hardwareleistung zu tun, was du aber versuchst die ganze Zeit zu erklären.

HardRockDude schrieb:
und das hebt sich gleichzeitig auf mit

Klar kann ich scheinbar nicht verstehen was du sagen willst. Du redest ja auch wirres Zeugs^^
Es hebt sich eben nicht auf.

Der Vergleich mit der 4770 war für den Arsch.
Wir reden hier schließlich über den Artikel in dem es um (wer hätte das gedacht) die 960 und 380 geht.
Also ich bitte dich^^
Bei den Karten soll es also an Rohleistung fehlen bei den vorgestellten Titeln?
Klar sind die nicht stark genug um auf max Details auf über 60 fps zu kommen.
Dann stellt man eben die Details etwas runter (wobei das für dich sogar so weit geregelt werden kann, dass es gut mit 20-30 fps läuft^^) um auf die für sich annehmbare fps zu kommen.
Nein, du kommst gleich daher und entziehst pauschal das recht auf ruckelfreies Spielen, wenn man nicht gleich eine Karte hat die ein Spiel auch auf Max Einstellung flüssig spielbar packt.

Ich hab da aber auch echt keine Lust mehr mit dir weiter zu diskutieren. ;) :P
Schließlich muss man sich ständig wiederholen oder reden aneinander vorbei^^
 
Irgendwie kommt der Unterschied bei mir persönlich im Video nicht so gravierend vor. Mir reichen auch niedrige FPS zu spielen.

Ich finde schon das man da DEUTLICHE Untschiede sieht.
 
gut, daß ich mir die 7970 ghz mit 6 gb vram geholt habe. ich bin in allen meinen spielen recht glücklich damit. gta 5 und witcher 3 spiele ich auf "hoch". flüssig. allerdings drehe ich die schatten auf mittel, weil ich weiß, was das für hardwarefresser sind.
 
Für mich stellte es sich so dar, das ich erst seitdem ich 2GB mit 4GB direkt verglichen habe, also ab da war mir klar, das ich nie mehr unter 4GB spielen werde,

ich bin kein Highender, brauche keine max Settings, wirklich nicht, mag diese PostFX nicht in High, und auch Bloom Effekte schalte ich meist aus, ausserdem Vsync immer an,
und doch möchte ich jetzt die 4GB nicht mehr missen, wäre mir vorher nie klar gewesen,

gut bei Batman Arkham Knight -diesen angeblich schlechten Konsolenport- kam mir die Idee, weil auch das jetzt integrierte VRAM Detekt-Tool bei 2GB anzeigte Vram zu wenig, könnte Ruckler geben, und das bei Texturen, Schatten auf niedrig und Gameworks komplett aus,
jetzt mit 4GB zeigt das Tool genutzte ca. 2,9 GB Vram an, ich habe Texturen und Schatten auf eine Stufe höher auf normal gestellt, und es läuft subjektiv wesentlich weicher, und ich finde -aber das kann ich mir Einbilden- das auch verbesserte (Physik?)Effekte da sind, der Regen, der Rauch..das was durch die Gegend fliegt, also die spielewelt sieht mit den 4GB noch mal ein ticken besser aus,

das gleiche auch bei Farcry 4, es läuft viel weicher mit 4GB, und nicht so quälend..irgendwie sieht es mit 4GB auch besser aus,
Crysis 3 genauso, das das so fantastisch aussieht, war mir nicht klar, kannte es ja nur mit 2GB, konnte durch
die 4GB etwas höher im Setting gehen, und die Spielwelt sieht fantastisch lebendig aus, die Vegetation, Licht/Schatten..es läuft Butterweich, also direkt ein Grund es nochmals zu spielen,

also wenn ich es nicht direkt verglichen hätte..ich war gerne der Meinung 2GB reichen für mein Spielverhalten..aber jetzt weiß ich da sich die 4GB nicht mehr missen möchte, denn ich habe subjektiv das Gefühl, das auch manche Games dadurch etwas schneller werden, also ich die Settings durchaus nochmal neu anpassen kann.
 
Zuletzt bearbeitet von einem Moderator:
Schöner Test@CB. Bisher konnte ich mit meiner 690 auch noch alles downgesampelt zocken was mich interessiert hat und hatte dadurch wenigstens noch ein schönes Bild ohne alles auf Ultra High zu stellen, doch nun merke ich in aktuellen Games das Limit der 2GB und fühle mich durch diesen Test bestätigt. Allerdings muss ich sagen das ich noch nie so lange mit einer Grafikkarte wie mit dieser gezockt habe, schließlich werden das demnächst 4 Jahre. Früher musste man sich doch immer schon alle halbe bis 1 Jahr ne neue Graka zulegen, zumindest ich .Wenn nächstes Jahr dann was gescheites kommt von Nvidia kann die Karte endlich in Rente geschickt werden, aber solange muss sie noch durchhalten. Hätte NV die doch bloß mit 4GB gebaut oder Asus ne Mars draus gemacht...
 
@CB
Was haltet ihr davon, das in eure Kaufempfehlung mit auf zu nehmen?
Gerade bei der GTX 960 ist der Aufpreis auf 4GB so gering, dass eigentlich jeder zu 4GB greifen sollte.
Oder kommt noch ein Extra Empfehlungs-Artikel zu Weihnachten?
 
@ ampre
Meinst du nicht dass du es etwas übertreibst oder dir etwas zusammenkonstruierst?
Ich versuche dir deine Meinung zu verbieten, indem ich auf eine Häufung von Unterstellungen gegenüber CB hinweise?
Dann versuche ich damit auch noch deine Meinung zu korrumpieren?
Anschließend meinst du CB habe dir(?) einen Krieg erklärt indem es AMD kritisiert hat?
Klingt sehr "abgefahren" in meinen Augen ;). Ich finde es in dieser Hinsicht auch irgendwo ironisch, dass du auf (deine eigene) Meinungsfreiheit anscheinend viel Wert legst und dementsprechend du in deinen Augen auch CB kritisieren darfst, jedoch durch Meinungsfreihet gedeckte Kritik von anderen an dir oder an AMD als Einschränkung deiner Meinungsfreihet oder als Kriegserklärung abstempelst.

Und zu meiner Voreingenommenheit: Habe ich nicht das Nai-Benchmark geschrieben? Habe ich nicht NVIDIA eine Seite mit Fuck-You-NVIDIA in meiner Masterarbeit gewidmet? Habe ich nicht schon 1000 mal geschrieben das PHIs gegenüber GPUs ihre Darseinsberechtigung haben und, habe auch mehrmals geschrieben, dass GCN eine sehr gute Architektur ist? Reicht das nicht aus ? Muss ich auch Posts von NVIDIA-Fanboys kritisieren?

@Krautmaster
Grz zum Abschluss :)
 
Interessant wäre für einige vielleicht auch, ob eine Empfehlung zur Aufrüstung auf eine aktuelle Mittelklasse-GPU mit 4GB, bspw. eine GTX960 mit 4GB oder R9 380 mit 4GB, Sinn machen würde, wenn man bereits/noch eine 2GB Karte älterer Generation (z.b. GeForce GTX 670OC, 680 und 770 oder Radeon 7870 und 6950) besitzt.

Da die 2GB Versionen der GTX 960 und R9 380 immer noch verkauft werden und einen gewissen Marktanteil besitzen (basierend darauf, dass es anfangs nur die 2GB Version gab oder der Aufpreis bei begrenztem Budget für einige nicht als lohnend erachtet wurde/wird), auch wenn der relativ geringe Aufpreis der 4GB Version für den Kauf dieser aktuell spricht, gehe ich davon aus, dass die 2 GB Karten (mit natürlich begrenzt, aber für weit als mehr als 90% derzeitiq zu kaufender Spiele ausreichender Leistung unter Full HD) bis Ende 2017 seitens Entwicklern neuer Spiele und nVidia ausreichend unterstützt werden. So gesehen hielte ich eine mögliche Kaufempfehlung für Leute, die etwa die o.g. 2 GB Karten haben, zu einem Upgrade auf eine 4GB Mittelklassekarte für unausgegoren, weil in den nächsten Jahren nur eine geringfügige zu erwartende Mehrleistung gegeben wäre, insbesondere für den zu zahlenden Aufpreis einer neuen Karte (= kaum Mehrwert).

Insgesamt kommt es also darauf an, woher man kommt bzw. was man derzeit besitzt um solch eine Neuanschaffung sinnvoll zu begründen.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Das haben wir deswegen gemacht, da höhere Texturdetails null auf die Leistung gehen, wenn diese in den Speicher passen. Bei der Rohleistung machen die Texturdetails daher keinen Unterschied. Passen die in den Speicher, wäre die Karte auch mit 512 MB genauso schnell. Darum haben wir das so gemacht. Zudem sind die Texturen zumindest für mich immer die Option, die man mit am letzten herunter dreht. Es gibt finde ich nicht viel was schrecklicher ist, als wenns matsche wird. Davon gibts heutzutage auch bei maimalen Details zu viel.
Das ist mir durchaus klar Wolfgang, und ist an sich auch verständlich. Es verzerrt mMn aber das Fazit. Welches dann eher lauten sollte "2GB reichen nicht mehr für maximale (Textur)Details."
Das Fazit, dass sich eine 2GB Karte bei dieser Leistungsklasse nicht mehr lohnt kann man denke ich parallel dazu ziehen.
 
Zuletzt bearbeitet:
Chismon schrieb:
Interessant wäre für einige vielleicht auch, ob eine Empfehlung zur Aufrüstung auf eine aktuelle Mittelklasse-GPU mit 4GB, bspw. eine GTX960 mit 4GB oder R9 380 mit 4GB, Sinn machen würde, wenn man bereits/noch eine 2GB Karte älterer Generation (z.b. GeForce GTX 670OC, 680 und 770 oder Radeon 7870 und 6950) besitzt.

Da die 2GB Versionen der GTX 960 und R9 380 immer noch verkauft werden und einen gewissen Marktanteil besitzen (basierend darauf, dass es anfangs nur die 2GB Version gab oder der Aufpreis bei begrenztem Budget für einige nicht als lohnend erachtet wurde/wird), auch wenn der relativ geringe Aufpreis der 4GB Version für den Kauf dieser aktuell spricht, gehe ich davon aus, dass die 2 GB Karten (mit natürlich begrenzt, aber für weit als mehr als 90% derzeitiq zu kaufender Spiele ausreichender Leistung unter Full HD) bis Ende 2017 seitens Entwicklern neuer Spiele und nVidia ausreichend unterstützt werden. So gesehen hielte ich eine mögliche Kaufempfehlung für Leute, die etwa die o.g. 2 GB Karten haben, zu einem Upgrade auf eine 4GB Mittelklassekarte für unausgegoren, weil in den nächsten Jahren nur eine geringfügige zu erwartende Mehrleistung gegeben wäre, insbesondere für den zu zahlenden Aufpreis einer neuen Karte (= kaum Mehrwert).

Insgesamt kommt es also darauf an, woher man kommt bzw. was man derzeit besitzt um solch eine Neuanschaffung sinnvoll zu begründen.

von der rohleistung her lohnt es sich nicht für 200€ von einer 670/680/770/780 auf eine gtx 960 zu wechseln, vor allem für diejenigen die damals bereits zur 4 bzw 6 (780) gigabyte variante gegriffen haben!
 
@Cloud:
ach ja, du bist ja Besitzer zweier 780ti. Gut, dass du es sagst, ich vergesse es tatsächlich immer wieder.
 
AnfängerEi schrieb:
oder reden aneinander vorbei^^
Genauso ist es, das hättest Du jetzt auch einfach dabei belassen können, anstatt nochmal öffentlich verbal nachzutreten, oder mir zumindest ne PN schicken.

"für den Arsch", "lächerlich", "merkste selbst", "ich bitte dich", "wirres Zeug", "kommst daher"

Wie alt bist Du? Warum gehst Du mich so persönlich an? Wenn Du einen individuellen Buffer-Overflow hast, ist das ok, aber lass es doch nicht so raushängen. Welche Ahnung hast Du von Architektur und Software? Wie lange erlebst Du Computergeschichte schon mit? Welche Fälle von Leistungseinbußen sind Dir bekannt? Warum liegt für Dich die Krux automatisch an "miesen Ports"? Ist Dir nicht klar, dass es drölfzig Millionen Faktoren gibt, die die Performance beeinflussen? Ist Dir nicht klar, dass es manchmal einen unverhältnismäßig großen Aufwand kostet, um nur 1% mehr Leistung zu gewinnen?

Diese Diskussionskultur geht mir irgendwo hin. Anstatt mal zu probieren, den anderen Standpunkt zu verstehen und zweimal zu lesen - dann hättest Du auch gemerkt, dass ich diplomatisch geblieben bin und Pauschalisierungen vermeide bzw. versuche, den Blick fürs "Wesentliche" zu schärfen. Der Vergleich mit der Graka ist leider auch vollkommen über Deinen Kopf geflogen.

Guten Abend.
 
Zuletzt bearbeitet:
Zurück
Oben