News Nvidias GeForce GTX 780 mit 6 GB Speicher kommt

Wenn man sich überlegt dass eine aktuelle Graka ein paar Millionen texturierte Dreiecke darstellen kann, wobei die Auflösung völlig latte ist, dann wäre es doch cool wenn jedes Dreieck seine eigene Textur haben könnte, sofern der Speicher ausreichen würde. Was das für eine Detailfülle geben würde.
 
Morku schrieb:
Na dann beantworte es mir per PN ;) Versteh mich nicht falsch, ich mag NVIDIA und meine nächste Grafikkarte wird wieder eine NVIDIA. Mit den gruseligen Treibern von AMD ärgere ich mich schon auf meinem HTPC rum und muss ich nicht im Hauptrechner haben. Als ich meine GTX480 gekauft habe war DX11 aktuell und dieses wird auch unterstützt. Tolle Grafikkarte, nur für aktuelle Titel zu langsam :) Aber was Kundenverarsche angeht, von umlabeln bis hin zu irgendwelchen Unterstützungen, die dann aber nur per Software und nicht in Hardware geschieht ist NVIDIA leider auch mit ganz vorne dabei.

@Ltcrusher
Und nur weil das jetzt so ist, muss das nicht in Zukunft der Fall sein. Ich kaufe mir keine (teure) Grafikkarte, um sie nach einem halben Jahr wieder zu ersetzen, weil es NVIDIA nicht für nötig hält aktuelle Standards zu unterstützen. Soll sich NVIDIA halt bei Microsoft beschweren, aber DX11.2 ist eben der aktuelle Standard und wenn ich viel Geld ausgebe, sollte das meiner Meinung nach auch unterstützt werden.

Immer die gleiche leier von den treibern. Die treiber von geforce fucken doch auch oft ab. mal ist grün dann wieder rot drann. meistens liegt sowieso an den spiele herstellern. ich nutze amd seit guten 15 jahren, die geforce ultra 2 war meine letzte nvidia und ich hab seit dem kaum probleme mit den treibern gehabt.

Und das mit den standart ist doch auch lustig, nvidia setzt die standart mit amd. nur weil amd mantle gemacht hat und weil nvidia nur dx 11 unterstützt, genau aus diesen grund gibt es halt nur dx 12. und dx12 soll wiederum bis fermi herunter unterstützt werden.
 
nVVater schrieb:
http://blogs.nvidia.com/blog/2014/03/20/directx-12/

von daher ist es völlig Latte was andere erzählen, wenn der Hersteller sagt das sie dx12 100% unterstützen dann tuhen sie das auch.

hier geht es außerdem nicht um directx, lass uns doch bitte ontopic bleiben.

Wollts ja nur genau wissen, nachdem DU das mit DX hier angefangen hast ;) Morku machte nur eine Bemerkung zur Langlebigkeit der Karte...
BTT

Wie Morku schon sagte, wer das Kleingeld dafür hat, kann sich sowas auch leisten. Wers nicht hat kann sich was im unteren Preissegment kaufen. Ich hab persönlich noch ne GTX560 Green und werd eventuell erst zur, auf Maxwell basierten x60(Ti), greifen. Aber spätestens dann wird auch ne neue CPU fällig (aktuell E8400 :D)
 
Wahnsinn wie die Leute sich verarschen lassen... Hey 6GB bleibt der Titan vorbehalten....
 
promashup schrieb:
Schlechtaussehende und schlecht optimierte Spiele nutzen die 6GB VRAM, während eines des bestaussehenden Spiele, BF4, auf Ultra und in 4K 3GB locker reichen. Was sagt uns das...

Das sagt uns, dass kleine Textur-Swap-Ruckler nicht von allen gesehen werden, und das man sie schon gar nicht erbenchen kann, bzw. jemals konnte? *g*
Bzw. das die Anzeige von 3.5GB VRAM-Usage vom Afterburner nicht unbedingt heißt dass es auf einer 3GB-Karte dann völlig zusammenbricht.

Dafür kotzen doch zur Zeit alle 2GB-VRAM-Mantle-AMD-User dass das VRAM DAFÜR nicht ausreicht. Blöd blöd blöd. Ob die alle Ultra und 4K-Monitore haben? Ich bezweifle es.
 
Meine Spitze ging eher in diese Richtung: Wenn 2GB für Full-HD nicht aureichen wenn man Mantle benutzt, reichen dann 3GB wenn man die 4-Fache Auflösung fährt? Denn schließlich haben sich die 2GB-User mit DX nicht beschwert dass das VRAM vollläuft.
 
Kartenlehrling schrieb:


Naja für die Battlebox sind 6gb schon fast zu wenig ....

Gibt es diese Sli-Brücke wirklich zu kaufen?
Zum Thema: So oder so wird Nvidia damit wohl wieder viel Diskussionstoff liefern.
 
D.h. Du hast mit diesen Settings mal alle Maps (sind ja ne ganze Menge) durchprobiert und geschaut ob keine Textur-Swap-Ruckler auftreten?
Sorry wenn ich das auseinandernehme. Ich hab natürlich auch nicht die Zeit alle Maps durchzumessen^^
Aber klar, wenn viel VRAM fehlen würde, dann würde die Graka-Auslastung zusammenbrechen. Merkst Du auch wenn wenig fehlt?
 
promashup schrieb:
BF4, auf Ultra und in 4K 3GB locker reichen. Was sagt uns das...

Das stimmt so nicht.
in 4k ist BF4 in ultra nicht spielbar weil es ständig zu nachlade ruckler kommt. ( die ruckler sind schlimmer als dauerhaft 15fps zu haben )
Selbst im leeren server ist der vram bei 4k am überlaufen mit einer 3gb karte.

Sobald was bei dir in der nähe explodiert fallen die FPS für eine Sekunde auf 0fps( frezze )



Auch wenn man sich schnell dreht gibt es immer kleine Hänger.
Mag sein das es dich nicht stört, es gibt aber Leute denen sowas tierisch nervt
 
Hmmm.. gibt uns wieder was zum denken, danke dafür.
 
Jaha, die guten nVidia-Treiber :) Bei JEDEM Treiber-Update in den letzten fünf Monaten kann ich die Surround-Gruppe samt erweitertem Desktop und Rahmenkorrektur neu anlegen (musse irre schwierig sein die Settings vorher abzuspeichern und später wieder zu laden, echte Raketenwissenschaft), bei jedem zweiten Treiber gibt´s am Ende der Treiber-Installation einen BlueScreen (und nur dabei). Bei der Express-Installation bekomme ich Müll installiert der nervt (GeForce Experience, 3D-Grütze) und die SLI-Profile mal vom Treiber zu lösen wie bei AMD mit den CAPs ist scheinbar auch völlig undenkbar. Und seit dem 334.89 habe ich feinste "2D Desktop-Display-Corruption" wenn ich Fenster auf den erweiterten Desktop und wieder zurück ziehe was sich auch mit dem 335.23 nicht geändert hat. Dumm nur weil ich das den ganzen Tag ständig mache.

AMD hat bei der selben Bildschirm-Konstellation Tearing am Display-Port, Maus-Cursor-Corruption und total Freezes bei der Videowiedergabe auf dem erweiterteten Desktop wenn man auf dem primären zockt, früher oder später. Dann ist mal zeitweise eins davon gefixt und das andere dann wieder kaputt. Dafür können sie sich das Bildschirm-Setup bei Updates merken, Crossfire-Profile separat ausliefern und die nicht benötigte(n) Karte(n) im Desktop-Betrieb komplett inkl. Lüfter abschalten.

Wenn ich bedenke wie lange beide schon auf der jeweiligen Architektur rumreiten und was die Highend-Kärtchen so kosten könnte ich bei beiden gleichermaßen fluchen. Aber "Vorn" sehe ich da keinen.
 
Zuletzt bearbeitet:
Same hier mit den NV-Treibern sofern SLI läuft. Bei der Single-GPU ist es zur Zeit entspannter.
Den Bluescreen-Alarm hatte ich allerdings mit einer HD5970 auch. Wir Multi-GPU-User werden da wohl Stiefmütterlich behandelt.
 
Immer her damit, vielleicht sinken dann die Preise der normalen 780 GTX :)
 
HisN schrieb:
Same hier mit den NV-Treibern sofern SLI läuft. Bei der Single-GPU ist es zur Zeit entspannter.
Den Bluescreen-Alarm hatte ich allerdings mit einer HD5970 auch. Wir Multi-GPU-User werden da wohl Stiefmütterlich behandelt.

Das freut mich mal zu hören, beim einzigen Google-Treffer mit der Display-Corruption aus diesem Jahr wurde am Ende empfohlen die SSD zu tauschen... :)
 
Zurück
Oben