News Nvidias GeForce GTX 780 mit 6 GB Speicher kommt

Ein Auszug von PCGH ...
Bei DirectX 12 handelt es sich um ein reines Software-Upgrade. Ein neues Shadermodell und somit neue Grafikkarten beziehungsweise –einheiten werden also nicht benötigt. Die Schnittstelle wird folglich mit den unten genannten GPUs lauffähig sein...
...es bleibt spannend & B2T :-)


edit: @Dai6oro
THX 4 "Futter" ...^^
 
Zuletzt bearbeitet:
@Iscaran

Ich hab mich aufs 2te Qartal 2015 bezogen oder is Q2 für Dich ende eines Jahres?
 
Nvidia ZzzzzzZZZZzzzzz ....oh GTX 780 mit 6GB ok dann kann ich ja weiter Schlafen .....zzzzzZZZZZzzzzz


Sarkasmus Mode: Off


Sry aber das was Nvidia da abzieht ist wie ein schlechter Witz, kurz bevor die neue 800 Serie kommen !!!
 
Zuletzt bearbeitet:
Einfach nicht kaufen und gut ist. Wozu sich künstlich aufregen...
Kochen beide nur mit Wasser...

Zeitpunkt ist halt unpassend... kennt man ja. Bei AMD auch nicht anders, bezogen auf den VRAM. Kommen ja auch erst April.
 
Es gibt definitiv welche, die dann sagen werden, dass eine 6GB GPU unbedingt nötig jetzt wäre.

Würde mich nicht wundern wenn Kasmopaya 6GB als Vram Krüppel bezeichnet :freaky:
 
Bisher wurden doch immer am Ende einer Produktreihe bzw. kurz vor Erscheinen einer neuen Generation die Karten mit mehr VRam auf den Markt geworfen, sowohl von AMD als auch von Nvidia. Man muss sich die Karten ja nicht kaufen. Es macht doch eh keinen sinn von einer GTX 780 mit 3 GB auf eine Version mit 6 GB zu wechseln. Für eine Neuanschaffung kann es doch aber durchaus interessant sein. Und bisher wird es doch nur von EVGA angeboten. MSI hat auf AMD Seite die 280X auch mit 6 GB im Programm. Da war der Aufschrei auch nicht so groß.
 
Ich hoffe das die neuen Karten 5GB+ und mehr als minimalste ausstattung haben. Bei meiner 770 4GB sind in einigen Spielen teilweise mehr als 3,2GB VRam ausgelastet, unter anderem schaft dies auch wow nach mehreren Stunden zocken sogar teilweise auf 3,4Gb, bei 2880*1620. Lieber zuviel VRam als zu wenig, lautet meine devise.
 
Herdware schrieb:
Diese 8GB sind aber VRAM + RAM und davon ist dann nochmal ein großer Teil für das OS der Konsole reserviert.
In der Praxis wird wohl kaum ein XBox One- oder PS4-Spiel mehr als 2GB VRAM nutzen und das gilt dann (zumindest bei etwas maßvollen Qualitätseinstellungen und ohne Textur-Mods) auch für die PC-Ports.

Solange PS4 und XBone aktuell sind, können PC-Gamer mit 2GB-Karten (und 8GB RAM) und ohne Ambitionen über FullHD hinaus oder Modding usw. relativ beruhigt sein, dass ihnen Multiplattform-Titel größere Probleme bereiten.

gut, bei HUMA ist es ja schon mal komplett dynamisch zwischen OS und GPU Verteilt, abseits davon wäre mir nicht bekannt wie viel des RAMs für das OS herhalten muss. Ich denke das wird abh. davon sein, was man macht. Schaut man sich XBMC an, so denke ich nicht dass die GUI/OS von XBONE oder PS 4 viel mehr als 512MB-1GB fressen wird. Der Großteil vom RAM dürfte schon den jeweiligen SpieleEngines zur Verfügung stehen. Hardware nah sollte zugleich auch etwas Ressourcen bezüglich Overhead schonen. Ich denke nicht, dass die Aufteilung 4 GB OS + 4 GB Game die Regel ist... MS und Sony werden schon drauf spekuliert haben dass über die Zeit eher die Texturen an Gewichtung gewinnen, da haben viele Games ungenutztes Potential während die reine Rohleistung schlecht aufgebohrt werden kann.

So oder so fällt das VRam zu GPU Leistungs Verhältnis bei den Konsolen ganz anders aus als bei heutigen Desktopkarten. Selbst 3 GB wären für ne Karte mit Leistung einer PS4 GPU schon viel...
 
Lars_SHG schrieb:
...
Allerdings ist die Vergrößerung des VRAMS für mich derzeit auch nicht nötig - bin noch nie über 2.5 GB geklettert - aber wie gesagt, bisher.........

ich konnte leider nicht verifizieren, ob du BF4 zockst und daß du "nur" 1920x1200" fährst.

bei mir ist es bereits unter BF4 mehrfach der Fall gewesen, daß der VRAM zu 2700..2900MB gefüllt war. bei gut 5MPx nicht unbedingt verwunderlich, aber doch ein wink mit dem Zaunspfahl, wohin die Reise gehen wird: wie immer nur nach oben!

MP ^^
 
Zuletzt bearbeitet:
Ich hab auch mit meiner R9 290 kein Problem BF4 äusserst flüssig auf Ultra zu spielen!

Wer für die 10-20% Mehrleistung 500€ Aufpreis zahlen will, ist selber Schuld!
 
r4yn3 schrieb:
Warum dieses? Zumindest die Beta lieft auf Hoch auf meiner 2GB Karte ohne Probleme. Wenn du dich auf Insane beziehst, dann hast du natürlich recht.

Eben. Nach allem was ich gelesen habe, wird bei Titanfall durch die VRAM-killende "Insane"-Einstellung für Texturen (die überhaupt erst ab 3GB VRAM aktivierbar ist) noch nicht mal die Bildqualität nenneswert besser.

Wie gesagt, man kann, wenn man es darauf anlegt, jedes VRAM zum Überlaufen bringen. Sei es durch extrem hoch auflösende Texturen (auch für weit entfernte, kleine Objekte) oder schlicht schlampige Programmierung (Speicher läuft mit der Zeit voll). Die Frage dabei ist, ob man dabei nenneswert an Bildqualität gewinnt, bzw. ob man nicht mit leicht runtergeregelten Qualitätseinstellungen auch sehr gut leben kann.
Kein Spielentwickler, der seine Sinne noch beisammen hat, wird nicht zumindest die Option bieten, mit 2GB VRAM auszukommen. Nicht nur, weil das zumindest bei FullHD erfahrungsgemäß für gute Qualität ausreicht, sondern auch einfach weil über 95% der potentiellen Kunden nicht mehr als das haben und auf absehbare Zeit auch nicht haben werden.

Krautmaster schrieb:
gut, bei HUMA ist es ja schon mal komplett dynamisch zwischen OS und GPU Verteilt, abseits davon wäre mir nicht bekannt wie viel des RAMs für das OS herhalten muss.

Bei der PS4 stehen laut den letzten Meldungen ca. 5GB für den Spiele-Entwickler zur Verfügung, der Rest ist für OS und Co. reserviert. Bei der XBox One dürfte das ähnlich aussehen. (Vielleicht sogar noch weniger, wegen dem stärkeren Fokus auf den Multitasking- und Mediacenter-Aspekt, dem ziemlich rechenaufwändigen Kinekt usw. .)

Ich nehme an, dass üblicherweise der größere Teil des verfügbaren Speichers als Arbeitsspeicher gebraucht wird und wie gesagt bis zu 2GB als VRAM.
Auch wenn man davon ausgeht, dass bei einem PC wesentlich mehr RAM für das OS oder sonstige im Hintergrund laufende Software drauf gehen kann, würde ich schätzen, dass ein PC mit 8GB RAM und 2GB VRAM sehr gut in der Lage sein sollte, mit den Speicheranforderungen von PS4- und XBone-Titeln (in FullHD) zurecht zu kommen, ohne dass man schmerzhafte Kompromisse bei der Bildqualität machen muss.

Was hUMA angeht, müsste das bei GP-GPU-Berechnungen den VRAM entlasten, weil die Daten nicht mehr wie früher hin- und her kopiert werden und damit praktisch doppelt vorhanden sein müssen. Die GPU kann dann direkt in den Arbeitsspeicher schreiben. Anderherum dürfte es seltener der Fall sein, dass die CPU im klassischen VRAM (für Framebuffer, Z-Buffer, Texturen usw.) herumschreibt.

Den Speicher nach Bedarf dynamisch zwischen CPU und GPU aufzuteilen beherrscht meines Wissens so ziemlich jede Onboard-Grafik seit je her.
 
Zu teuer ? Abzocke von NV ?
Ja vermutlich aber niemand zwingt einem NV zu kaufen .. NIEMAND !!!!

Dafür gibt es ja AMD mit 3GB im Mainstream und 4gb im high end !

Die Sache ist einfach die das 95% der Nutzer oder noch mehr eben mit den aktuellen Vram grössen absolut ausreichend bediehnt sind.
Und vram wird eh mit jeder Generation grösser, wobei man mal abwarten muss aber wenn eben die Gerüchte stimmen haben wir Ende 2014 oder Anfang 2015 dann 3gb als standard im mainstream und 6gb im high end . Bei AMD evtl sogar 4 gb und 8 gb.

Daher einfach nicht kaufen und das Jahr noch abwarten oder auf die 8gb saphirre warten :D
 
Ich verstehe die Aufregung von manchen Leuten hier nicht.

NV ist ein Konzern der wirtschaftlich denkt und erfolgsorientiert arbeitet. Das Die den Grafikchip sowas von extrem "auslutschen" ist wirtschaftlich nur verständlich. Bis zu R7/9 Serie und Mantle gabs keine Konkurrenz...

Versteht mich nicht falsch, ich hätte es auch begrüßt, wenn ich vor fast einem Jahr meine 780 mit 6GB VRAM erstanden hätte, aber das ist nunmal nicht der Fall. - Der Mensch bzw. die Wirtschaft schenkt sich heutzutage nichts mehr.

Es zählt:
- Umsatz
- Marge
- "realer" Gewinn

Die Kollegen von NV verstehen dahingehend ihr Handwerk und schöpfen den Endanwender soweit ab, bis dieser "nichts mehr hat", "will" oder "nicht mehr mit sich machen lässt".

Zudem, sind wir doch mal ehrlich: Wer bescheisst heutzutage nicht? - Ich kann für mich sagen, dass ich an allen Ecken und Enden bescheisse... - Wir sind in einer Ellenbogengesellschaft angelangt und können uns weiter beschweren oder endlich mal das Spiel mitspielen.

Gerne könnt ihr mich nun dafür "bashen", frei nach dem Motto: "Wenn Jeder so denken würde...", aber realistisch gesehen ist die Gesellschaft heutzutage leider so und warum soll ich einer von wenigen Deppen sein, die dieses Prinzip nicht nutzen...
 
Eben. Nach allem was ich gelesen habe, wird bei Titanfall durch die VRAM-killende "Insane"-Einstellung für Texturen (die überhaupt erst ab 3GB VRAM aktivierbar ist) noch nicht mal die Bildqualität nenneswert besser.

Einstellungen Ultra nicht Insane + Full HD hat PCGH dazu veranlasst eine 3GB Karte zu empfehlen:

http://www.pcgameshardware.de/Titan...anfall-Benchmarks-welche-Grafikkarte-1114386/

Und wie gesagt sowas wird es in Zukunft öfter geben. 2GB sind einfach zu wenig schon heute und in Zukunft erst Recht.
 
@Dai6oro

Die schreiben in dem verlinkten Artikel aber auch eindeutig, dass das eben nicht an besonders hervorragender Texturqualität oder sonstigen nenneswerten Qualitätsverbesserungen liegt, sondern nur an schlechter Optimierung bzw. sinnlosem Kram, wie Videoclips für Menühintergründe dauerhaft im VRAM abzulegen.

Das Spiel ist offensichtlich einfach nur extrem schlampig programmiert. Die Lösung ist hier also eher ein Patch, der das behebt und nicht, sich extra dafür eine 3GB-Karte anzuschaffen.
Ich hoffe doch auch stark, dass derartig schlampige, fehlerhafte Programmierung zukünftig nicht zum "Standard" wird, nur weil es Grafikkarten gibt, die das mit schierem VRAM-Overkill kompensieren können.

Die 3GB schafft übrigens laut diesem Test wohl auch das verbugte Titanfall nicht volllaufen zu lassen. Die Titan schneidet trotz 6GB wie zu erwarten schlechter ab, als die 780Ti mit 3GB. In dem Fall wäre also auch ein Aufpreis für die 6GB-780 rausgeschmissenes Geld.
 
Habe ich auch schon zuvor geschrieben, dass es unnötig und schlecht programmiert ist aber der Grund tut nichts zu Sache, denn die Programmierer werden den größeren RAM der neuen Konsolengeneration schamlos ausnützen. Wie gesagt das mag jeder anders sehen aber ich erwarte derartige Auswüchse in Zukunft öfter.

PS: Von 3 GB habe ich nicht gesprochen obwohl ich persönlich 3GB schon knapp finde wenn man >Full HD spielt sei es mit DS oder nativ. Noch nicht jetzt vielleicht aber in Zukunft.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
denn die Programmierer werden den größeren RAM der neuen Konsolengeneration schamlos ausnützen.

Naja. In diesem Fall ist es ja eher nicht die Größe des VRAM der Konsolen. Die haben wie gesagt auch nicht mehr als max. 2GB dafür über. Eher dürfte in diesem speziellen Fall der Umstand, dass die Konsolen den VRAM dynamisch vom Arbeitsspeicher abzwacken, die Ursache für den Bug im PC-Port sein.
Bei PS4 oder XBone ist es schnurz, ob die erwähnten Videos im RAM oder VRAM liegen. Geht eh alles von den insgesamt 8GB ab. Beim PC mit seiner klaren Trennung (z.B. 8GB RAM und 2GB VRAM) führt das dann aber zu Problemen.

Wie gesagt, das ist schlampige bzw. einfach nur fehlerhafte Programmierung. Mit Programmfehler dieser Art kann man natürlich jeden VRAM überlaufen lassen. Es wäre die völlig falsche Reaktion, darauf damit zu reagieren, sich Grafikkarten mit übertrieben viel VRAM zuzulegen, nur um ein paar dieser Prorgammierfehler damit auszubügeln oder den Crash etwas nach hinten zu schieben.
Sowas muss im Spiel selbst korrigiert werden!

Ich sehe es noch ein, wenn man mit mehr VRAM mehr Bildqualität erreichen kann. Aber um Schlamperei oder einfach nur Faulheit der Entwickler zu kompensieren, nein Danke!
 
Zuletzt bearbeitet:
Also wer jetzt die Kohle dafür raushaut, dem ist eh nicht mehr zu helfen.. Maxwell steht vor der Tür.
 
deathscythemk2 schrieb:
Maxwell steht vor der Tür.

Ich persönlich rechne nicht vor Ende 2014/Anfang 2015 mit High-End-Maxwells. Erstmal kommt Mitte des Jahres noch eine GTX790 mit Dual-GK110 (als Gegenstück zur 295X2 mit Dual-Hawaii). Die wäre nicht besonders sinnvoll, wenn gleichzeitig schon Karten mit neuen High-End-GPUs rauskämen, die ihnen die Show stehlen.
Und selbst Ende des Jahres müssen noch keine GK110-Nachfolger kommen. Gut möglich, dass Nvidia wieder erstmal nur Performance-Chips (GM104) bringt und die echten High-End erst fast ein Jahr später.

Also noch reichlich Zeit, für die Anschaffung einer GK110-Karte.
 
Zurück
Oben