Notiz GeForce RTX 2060: Custom Designs ab 369 Euro im Handel verfügbar

@xexex
Das widerspricht aber leider dem was aktuell an Preisen veranschlagt wird. Aber warten wir es ab. Du gehst von niedrigeren Preisen aus. Ich gehe nicht davon aus. :)

@dominic.e
Sobald du eine hast, kannst du ja mal bei jedem neuen Game das du dir zulegst eine Wasserstandsmeldung abgeben, in wie weit es da Einschränkungen gibt. ;)
 
Ich will trotzdem nochmal intensiv darauf aufmekrsam machen, dass Nvidia schon immer einen weg gefunden hat mit weniger ram inkl bandbreite auszukommen.
Ich führe hier wie schon in einem älteren thread die gtx960 als beispiel an. Vergleicht sie mal mit der gleichzeitig erschienen r9 285. Nvidia konnte mehr leistung trotz des HALBEN speicherinterface bringen.
Und wieder betone ich, dass ich keine 2060 haben will, und ich den Preis zu hoch finde, dass ich kein fanboy bin, und selbst eine rx480 besitze.
Deshalb wage ich zu behaupten dass man eine 1070ti 8gb vielleicht nicht 1:1 mit einer 2060 gddr6 vergleichen kann. Es kann schon sein dass es so ist, das geb ich durchaus zu.
ABER sich jetzt hinzustellen und zu behaupten, dass man wisse, dass die 1070ti viel besser ist, und immer 2gb mehr zur verfügung haben wird, ist unfug und selbstüberschätzung.
 
Was soll denn der Vergleichsansatz zwischen einer NV Gtx960 und AMD R9 285 bezüglich Ram und Speicherbandbreite obwohl es hier ja um NV Rtx 2060 vs. NV Gtx 1070ti geht ?Also was fürn Humbug ohne relevanz versuchst du hier an den Mann zu bringen ?

Wenn eine GPU der neusten Generation vom gleichen Hersteller leistungsmässig in der selben Liga spielt wie eine Karte der Vorgängergeneration klar kann man hier einen 1:1 Vergleich anstellen. Wird doch auch mit 2080 vs. 1080ti ect. genauso gemacht. Falls das so nicht sein darf kann PCGH wohl demnächst seinen Betrieb am besten dicht machen.

Eine 1070ti mit 8Gb hat nunmal 2Gb mehr physikalisch vorhandenen VRam als eine 2060 mit 6Gb und den Vorteil behält sie auch für immer und ewig. Vorallem in Anbetracht das beide Karten zwar genug GPU Leistung für WQHD Auflösung bieten sind die 8Gb in diesem Punkt gegenüber den 6Gb auf der 2060 aber schlichtweg die bessere Wahl. Hier was anderes zu behaupten ist einfach purer Unfug oder reine Selbstüberschätzung seiner Sichtweise.
 
Selanius schrieb:
@dominic.e
Sobald du eine hast, kannst du ja mal bei jedem neuen Game das du dir zulegst eine Wasserstandsmeldung abgeben, in wie weit es da Einschränkungen gibt. ;)
Ich versuche keineswegs diese 6GB zu rechtfertigen, natürlich wären 8GB angemessener gewesen. Aber wie schon oft gesagt, konkurriert das dann zu sehr mit der 2070.

Bis ich mir die 2060 kaufe, werden aber mit Sicherheit noch einige Wochen ins Land ziehen, da ich sie jetzt noch nicht so wirklich dringend brauche.

Ich bin zB auch kein Mensch, der jedes AAA-Game mitnimmt (Ich kann dir nicht mal sagen, welches mein letztes AAA-Game war). Ich habe idR so meine 2-3 Spiele welche ich immer spiele. Und das sind momentan CS:GO und PUBG als meine Main-Titel und ggf. n paar Indie-Games, von daher ist die Karte da doch eigentlich perfekt für.
 
Dark-Silent schrieb:
Was soll denn der Vergleichsansatz zwischen einer NV Gtx960 und AMD R9 285 bezüglich Ram und Speicherbandbreite obwohl es hier ja um NV Rtx 2060 vs. NV Gtx 1070ti geht ?Also was fürn Humbug ohne relevanz versuchst du hier an den Mann zu bringen ?

Wenn eine GPU der neusten Generation vom gleichen Hersteller leistungsmässig in der selben Liga spielt wie eine Karte der Vorgängergeneration klar kann man hier einen 1:1 Vergleich anstellen. Wird doch auch mit 2080 vs. 1080ti ect. genauso gemacht. Falls das so nicht sein darf kann PCGH wohl demnächst seinen Betrieb am besten dicht machen.

Eine 1070ti mit 8Gb hat nunmal 2Gb mehr physikalisch vorhandenen VRam als eine 2060 mit 6Gb und den Vorteil behält sie auch für immer und ewig. Vorallem in Anbetracht das beide Karten zwar genug GPU Leistung für WQHD Auflösung bieten sind die 8Gb in diesem Punkt gegenüber den 6Gb auf der 2060 aber schlichtweg die bessere Wahl. Hier was anderes zu behaupten ist einfach purer Unfug oder reine Selbstüberschätzung seiner Sichtweise.
ich erklärs dir mein lieber. Du darfst und kannst soviel Kartengenerationen vergleichen wie du willst. Ich behaupte lediglich dass es durchaus möglich sein kann, dass eine Architektur für den selben task weniger ram braucht als eine andere.
Deshalb wäre es verfrüht wegen 6gb sturm zu laufen, obwohl man noch nicht alle Fakten kennt.
 
Entweder ist das ein guter oder schlechter Scherz aber nicht mehr und nicht weniger.
 
Bei den Preisen der RTX-Serie wird einem ja schlecht!
Raytracing hin oder her, das sind die Karten einfach nicht wert.

Hoffe das AMD auch hier in Ryzen-Manier kontert.
 
@Dark-Silent
Ein letztes mal. Nvidia hat in den letzten generationen nachweislich immer wieder ihre kompressionsalgorythmik verbessert. Die gtx960 habe ich als beispiel angeführt, weil es die erste Karte war, die am meisten davon profitiert hat, mit 128bit interface und 2gb ram auskam, wo eine 670 2gb bereits "voll" war.
Das beispiel ist ein anschaulicher vergleich und kein Unfug.
Hier ein kleiner auszug der genauer darauf eingeht:
"Maxwell’s Color Compression Technology
Color compression and other techniques to reduce data being shunted around the graphics cards bus aren’t particularly new, but with each successive generation of cards Nvidia refine and further improve the technology. The lineage of color compression dates back to the GeForce FX series (released in late 2002), which effectively compressed data to a 4:1 ratio; the technology by today’s standards is fairly crude, and at a basic level looks at the scene on a frame-by-frame basis, breaking data the image into ‘sectors’ and then looking for portions of data it can compress (by saying, hey, these bits of data are all the same color, no need for all of that info!).

Next came Fermi – AKA the GeForce GTX 400 series, which took things a step further with the introduction of Delta Color Compression – and switches things up rather considerably by changing to pattern compression instead of regional compression, it compresses the data based on what’s different rather than what’s the same. Maxwell builds on this established color compression technology, enabling the GPU’s 3rd generation technology to recognize a greater number of patterns, and thus compress more actual color pixels." -redgamingtech.com

Warum soll es denn ein schlechter Scherz sein, die möglichkeit in betrach tzu ziehen, dass RTX Karten den Pascal Karten auch hier wiederum voraus sind? Du tust ja so als würd ich Märchen erzählen, dabei ist das eine technologische entwicklung, die nachweislich beinahe in jeder Grafikkartengeneration voranschreitet.
 
@RB6istGut
Weil selbst die beste Kompression mit dem wegfall von Informationen arbeitet woraus eine kleinere Datenmenge resultiert. Darum ist es auch kein echter Ersatz für physikalisch vorhandenen Speicherplatz um die unverfälschten vollständigen Daten abzulegen. Es ist nichts anderes als gutgemachte Augenwischerei. Am besten solltest du auch belegen können wenn du etwas als gleichwertig hinstellst. Leider ist die Möglichkeit bei dem Begriff Kompression schon nicht mehr gegeben. Wenn du mir jetzt wieder irgendwelchen Humbug erzählen willst das dem nicht so ist spar es dir.

P.S.
Ein Task führt etwas aus und verbraucht keinen Speicher im von dir angedachten Sinne.
 
Zuletzt bearbeitet von einem Moderator:
Was nützt mir die geilste Kompression, wenn die Daten nicht schnell genug transportiert werden können, oder die Datenmenge die gleichzeitig oder in kürzeren Abständen in den Speicher geschoben wird, einfach die größe des Speichers übertrifft?
Tut mir ja leid, aber wenn der Speicher voll ist, dann ist er voll. Und er ist trotz einer möglichst guten Kompression eben bei 6GB schneller voll wie bei 8GB. Oder will hier einer jetzt sagen, das nVidia mit ihrer Kompressionsmethode es schafft aus 8GB Daten mal eben nur 6GB zu machen?

Und gerade weil ja die GPU der RTX2060 so stark ist, wird hier definitiv Leistung verschenkt durch den geringeren Speicher.

@RB6istGut
CB hat doch sogar in ihrem eigenen Test schon bewiesen, das der Speicher limitiert. AUF CB, DIESER TECHSEITE. Wie kann man sich ausgerechnet hier hinstellen und das Gegenteil behaupten, wenn es sogar schon SCHWARZ auf WEISS hier steht? :freak:
 
Selanius schrieb:
Was nützt mir die geilste Kompression, wenn die Daten nicht schnell genug transportiert werden können, oder die Datenmenge die gleichzeitig oder in kürzeren Abständen in den Speicher geschoben wird, einfach die größe des Speichers übertrifft?
Tut mir ja leid, aber wenn der Speicher voll ist, dann ist er voll. Und er ist trotz einer möglichst guten Kompression eben bei 6GB schneller voll wie bei 8GB. Oder will hier einer jetzt sagen, das nVidia mit ihrer Kompressionsmethode es schafft aus 8GB Daten mal eben nur 6GB zu machen?

Und gerade weil ja die GPU der RTX2060 so stark ist, wird hier definitiv Leistung verschenkt durch den geringeren Speicher.

@RB6istGut
CB hat doch sogar in ihrem eigenen Test schon bewiesen, das der Speicher limitiert. AUF CB, DIESER TECHSEITE. Wie kann man sich ausgerechnet hier hinstellen und das Gegenteil behaupten, wenn es sogar schon SCHWARZ auf WEISS hier steht? :freak:


Es wurde leider bei CB und PCGH nur gegen eine GTX2070 getestet. Ich hätte gerne gesehen, wie die Karte verglichen mit einer 8GB AMD Karte bei hoher Speichernutzung performt. Also ob die Kompression (die in ziemlich angestaubten Tests damals eine positive Wirkung gezeigt hat) immernoch etwas bringt und den 2GB Nachteil vielleicht sogar kompensiert.

mfg
 
xexex schrieb:
Igor hat letztlich genau dies gesagt. Er hat die Fakten genannt und sich die Wahrsagerei weitgehend gespart. Etwas wovon sich einige Foristen hier ein gutes Beispiel nehmen könnten.

Selbst das neue Metro fordert bei High schon 8GB Speicher in Full HD!
Da hat sich Nvidia selbst ein Bein gestellt, 6GB sind aus heutiger Sicht schon in einigen Fällen zu wenig.
Kann man daher auch nicht empfehlen diese Karte, auch wenn die Leistung für den Preis mehr als stimmt.

339 Euro bei Mindfactory sind für Vega 64 Leistung ein Spitzenpreis, aber eben der 6GB Pferdefuß dabei.
Lieber eine Vega oder 1070.

ZeroZerp schrieb:
3
Wie kommst Du darauf, dass in 1-2 Jahren die Karte nicht mehr nutzbar sei und dass dann alle Titel plötzlich 8GB VRAM benötigen und zudem keine AA und Texturoptionen mehr wählbar sind?

Nutzbar ja, aber wieso sollte ich heute für viel Geld zu einer GPU greifen, die aus dem Stand heute schon in mehreren Beispielen schlechte Frametimes wegen zu wenig Speicher produziert und sich dieser Zustand in den nächsten Monaten und Jahren deutlich verschlechtern wird?
Neue GPU und keine maximalen Textureinstellungen nutzen können? Das ist schon ein Mega-Nachteil, der die Karte eigentlich obsolet macht.
 
KlaraElfer schrieb:
Selbst das neue Metro fordert bei High schon 8GB Speicher in Full HD!

Metro ist auch ein RTX Spiel, du wirst also auch mit der besten AMD Grafikkarte derzeit nicht die volle Grafikqualität erleben können. Man wird bei den Tests sehen müssen wie sich die Settings letztlich auf die Grafikqualität auswirken. Die RTX2060 ist und bleibt eine Mittelklassekarte der aktuellen Generation, wer überall die höchsten Settings erwartet, ist hier falsch aufgehoben.

Battlefield interessiert mich wenig, Metro werde ich mir auf jeden Fall erst anschauen wenn meine Grafikkarte RTX kann. Wen man sich hier überall die ganzen Licht- und Schattenspiele ansieht, will ich mir gar nicht vorstellen wie genial das alles mit RTX aussehen wird.
 
Zuletzt bearbeitet:
xexex schrieb:
Wen man sich hier überall die ganzen Licht- und Schattenspiele ansieht, will ich mir gar nicht vorstellen wie genial das alles mit RTX aussehen wird.
Ich würde mir mit Sicherheit nicht nur wegen eines Titels eine Grafikkarte eines bestimmten Chipherstellers zulegen. Und noch viel weniger bin ich daran interessiert proprietäre Techniken zu unterstützen - wobei RayTracing eine API in DX enthält. Mal sehen was AMD hier bringen wird.
 
Metro ist sicher kein RTX Spiel. Sondern ein Spiel welches eben das zusätzlichen Feature RTX eingebaut hat. Ich bezweifel mal stark, dass Metro ohne RTX nicht gut aussieht. Man würde immerhin dann den 85-90% der Käufer, die eben keine RTX Karte haben, sonst hart vor den Kopf stoßen.
Von daher ist das mal wieder leider einfach nur eine überdramatisierung von dir @xexex .
 
  • Gefällt mir
Reaktionen: I'm unknown
Selanius schrieb:
Ich bezweifel mal stark, dass Metro ohne RTX nicht gut aussieht.

Wie Metro mit und ohne RTX aussehen wird kann man ja schon mal auf den Videos sehen und ich bevorzuge dann halt die Version mit RTX. Das Spiel wird klar auch ohne spielbar sein und natürlich werden auch die ganzen Konsolenspieler auf Raytracing Effekte verzichten müssen und höchstwahrscheinlich trotzdem Spaß dran haben. Es halt nur Quatsch die Systemanforderungen hier anderen vor die Nase zu reiben und auf den empfohlenen VRAM hinzuweisen, aber ein wesentlich wichtigeres qualitätsentscheidendes Feature unter den Tisch zu kehren.

Wer das Geld übrig hat sollte auf jeden Fall zu einer RTX2070 greifen. Ich bin mir aber auch ziemlich sicher, dass der Unterschied in der Bildqualität zwischen RTX und keinem RTX wesentlich höher sein wird als zwischen 8GB und 6GB VRAM. Bei Battlefield mag man sowas noch unter "Nice to have" abwinken, aber bei einem Spiel mit recht düsteren Atmosphäre, kommt es halt sehr auf die Stimmung an und hier freue ich mich schon drauf wie das Endergebnis mit Raytracing aussehen wird.
 
Zuletzt bearbeitet:
Und wenn man keine RTX Karte hat, wird man trotzdem das Spiel spielen können, es wird trotzdem "schön" aussehen und auch ohne RTX wird es je nach genutzter Grafikkarte und Einstellung laufen.
Du tust ja so, als wenn man ohne RTX Karte Metro nicht vernünftig spielen könnte, auch was die Atmosphere angeht.
Natürlich wäre es gut, wenn endlich ein Game raus kommt, was RTX vernünftig nutzt um so endlich zu zeigen was man mit RTX anstellen kann. Aber gerade RTX wird eben trotzdem weiter Leistung kosten. Was dann wieder dafür sorge tragen wird, das eine RTX 2060 ganz schnell durch ihre 6GB VRAM limitiert wird, wenn man eben nicht bestimmte Einstellungen runter schraubt in FHD. Und das bei einer NEUEN GPU für den Preis. Nicht so geil.

Und ja wer das Geld übrig hat, sollte definitiv zur RTX2070 greifen um einigermaßen die RTX Features auch vernünftig nutzen zu können in FHD. ;)
 
Zurück
Oben