News GPU-Gerüchte: Hinweise auf GeForce RTX 3070 (Ti) mit GA104

Ich kann die Meckerei wg. der Preise nicht nachvollziehen. Das Topmodell hat früher vielleicht nur 400 - 600 Euro gekostet, wurde aber nach 6 -12 Monaten durch einen 50% -100% schnelleren Nachfolger ersetzt.

Meine GTX1080 hat rd. 700 Euro gekostet und nach 4(!) Jahren ist sie noch ähnlich schnell wie eine 200-Euro-Karte. Vor 10 Jahren war eine 4 Jahre alte Karte nicht zu gebrauchen. Früher war es deutlich teurer dauerhaft eine "gute" Grafikkarte zu haben.
 
  • Gefällt mir
Reaktionen: matze313, lex30, JMP $FCE2 und 2 andere
redlabour schrieb:
Das ist falsch. Die Konsolen werden VRAM lediglich mit mehr Daten belegen um ihre sonstigen Nachteile auszugleichen.
Genau aber da scheinen ja Entwickler besondern die PS5 zu loben. Denn Texturen müssen nicht mehr in den VRAM gelanden werden sondern können direkt vom SoC in die GPU geladen werden.
Wenn man bedenkt, dass AMD und NV Jahre lang an VRAM Kompression und Algorithmen gearbeitet haben, die nur die direkt kommende Texturen laden und verarbeitet werden sollen, lagert man das Problem jetzt bei Konsolen einfach in die SSD, die weit aus mehr Speicherplatz zur Verfügung haben. Was bedeutet mehr VRAM für RT und Co zu haben, welche von einem schnellen VRAM eher profitieren. Weiteres löst man damit auch das Problem Texturen mehrmals auf einen Datenträger abspeichern zu müssen, damit der VRAM schnellen Zugriff auf diese hat (wie bei XBOX und PS4 der Fall ist)

Eher meine ich, dass es im PC noch dauern wird, bis die m.2 SSD am Board oder direkt auf der Grafikkarte ähnlich effizient verwenden kann, wenn auch ich schon bald erste Software erwarte, da Spiele Entwickler dieses Feature sicherlich auch am PC haben wollen.
 
  • Gefällt mir
Reaktionen: schneeland, hucky1302, CMDCake und 2 andere
Mich interessiert, was ich für max. 150W an Leistung bekommen würde. Das wäre der einzige Grund, meine 1070 abzuschaffen, wenn es dort ordentlich krachen würde - leistungsmäßig natürlich.
 
Tomahawk schrieb:
Das Topmodell hat früher vielleicht nur 400 - 600 Euro gekostet, wurde aber 6 -12 Monaten durch einen 50% -100% schnelleren Nachfolger ersetzt.
Ja, und mit RTX 2000 wurde praktisch gar nichts ersetzt, sondern auf der P/L der GTX 1000 nach oben hin "ausgebaut". Früher hast du, nach deinen eigenen Angaben, 50%/100% mehr Leistung fürs gleiche Geld bekommen.

Tomahawk schrieb:
Meine GTX1080 hat rd. 700 Euro gekostet und nach 4(!) Jahren ist sie noch ähnlich schnell wie eine 200-Euro-Karte. Vor 10 Jahren war eine 4 Jahre alte Karte nicht zu gebrauchen. Früher war es deutlich teurer dauerhaft eine "gute" Grafikkarte zu haben.
Also technologischen Stillstand als etwas gutes zu verkaufen - darauf muss man ersteinmal kommen. :lol:
 
  • Gefällt mir
Reaktionen: blackTEHhawk, Qualla, sent!nel und 10 andere
OR4LIFE schrieb:
Hoffentlich gibt nvidia bald handfeste Details bekannt. Mal schauen was meine 1080ti ersetzt. :)

Die 1080ti ist doch schon verdammt schnell wieso ersetzen? :s
 
  • Gefällt mir
Reaktionen: Romanow363
redlabour schrieb:
Weil der Mainstream immer noch mit 4-6 GByte rumdödelt. 8GByte sind immer noch HighEnd und alles darüber mindestens noch 2 Jahre Marketinggeblöddel. Der schnellere RAM rechtfertigt zusammen mit RTX ein Upgrade deutlich.

und genau diese 2 jahre benötige ich, da ich gerne selten neu kaufe ;)
der 32 zöller steht schon auf dem schreibtisch und die 1070 kommt an ihre leistungsgrenzen, wenn auch der vram jetzt noch reicht.
vermutlich wird es aber darauf hinauslaufen, dass ich die 1 vorn im namen vervierfache und erst wieder eine 4070 kaufe, das kann ich mir auch schönreden :freaky:
 
Bright0001 schrieb:
Also technologischen Stillstand als etwas gutes zu verkaufen - darauf muss man ersteinmal kommen.
Nö, ich bedauere es sehr. Ich sage nur, dass man jetzt nicht mehr Geld für eine spielfähige Grafikkarte ausgibt als zuvor. Der höhere Kaufpreis kann auf eine längere Nutzungsdauer verteilt werden.
 
redlabour schrieb:
Natürlich gibt es Spiele die 8GByte voll ausreizen. Die gleichen Spiele reizen auch 11 GByte aus mit sinnlosem Cache.

Er behauptet der Vram wäre mit genutzten Daten voll und es gäbe hässliche Frametimes. Nix Cache in dem Fall.

Wobei ich sowas auch immer nur anekdotisch höre. So nach dem Motto" "Als mal w+x+y+z zusammengekommen sind und ich die Texturmods anhatte, hats bei 8GB geruckelt. Es war schrecklich"
 
  • Gefällt mir
Reaktionen: Piecemaker
Ich bin extra wieder auf 1080p um meiner 1070 GTX nicht die WQHD zuzumuten :D. Reicht mir zum Glück auch vollkommen aus. Ich versuche bei den Preisen einen Wechsel einfach so weit rauszuzögern wie möglich. Früher hat man gern neue Hardware gekauft. Bei den Preisen in Relation zu Leistungssteigerung ist mir die Lust daran irgendwie vergangen.

Wenn die Preise einigermaßen passen kann ich mir ein Upgrade aber durchaus vorstellen. Hoffentlich kann AMD da auch noch ein Wörtchen mitreden. Davon würden wir alle nur profitieren.
 
  • Gefällt mir
Reaktionen: Daniel D. und JamesCarter
Ich bin froh dass AMD in der Oberklasse wieder mitspielen wird. 8 GB für eine 500 Euro Karte in 2020 finde ich inzwischen schon bisschen dürftig. In Wolfenstein mit rtx ist die Auslastung meiner 8 GB am Anschlag. Wie wird es dann mit nächsten Blockbustern sein wenn du neuen Konsolen rauskommen.
Bin aber auch nicht bereit mehr wie 700 Euro auszugeben. Bin also gespannt wie die AMD Karten ausgestattet werden. Hoffentlich besser als Nvidia mit ähnlicher Performance in den Performancelevel der Nvidia Karten.
 
  • Gefällt mir
Reaktionen: CMDCake
pipip schrieb:
lagert man das Problem jetzt bei Konsolen einfach in die SSD, die weit aus mehr Speicherplatz zur Verfügung haben. Was bedeutet mehr VRAM für RT und Co zu haben, welche von einem schnellen VRAM eher profitieren.

Gleiches wird bei billigen Grafikkarten gemacht, haben die nicht genug VRAM wird in den RAM des Systems ausgelagert, alles ein alter Hut.

Die Performance war dennoch schlecht, weswegen sich das nie bei schnellen GPUs durchgesetzt hat. Und SSD sind ja nochmal um Faktor 100.000 langsamer.
Klar, besser als olle HDD.
 
Ich verstehe das Argument der Konsolen nicht so ganz, 2013 bei Release der Xbox One und PS4 hatten die Topmodelle wenn ich jetzt nichts verhaue 6GB (Nvidia) und 4GB (AMD). Die neuen Konsolen verdoppeln die Speichermenge auf 16GB, also wäre man mit ~12GB ca. auf dem Niveau von vor 7 Jahren.
Ansonsten wird es ja langsam spannender, bei Nvidia rechne ich mit einer Vorstellung im August also nicht mehr lange. Bei AMD ist es ja erstaunlich ruhig (was eventuell ja etwas gutes ist).
 
flappes schrieb:
Gleiches wird bei billigen Grafikkarten gemacht, haben die nicht genug VRAM wird in den RAM des Systems ausgelagert, alles ein alter Hut.
Ich meine, dass es ein Unterschied ist, ob man "ab" vollen VRAM Texturen einfach in den RAM ladet, im Vergleich zu einer eigenen Hardware Controller und auch Software, die zeitkritische Objekte in den VRAM ladet und weniger zeitkritische Objekte, oft eben Texturen direkt aus der SSD. Außerdem hat der Arbeitsspeicher im Vergleich zu einer SSD den selben Nachteil, wie der VRAM der GPU. Er ist limitiert (Speichergröße, wobei bei einem PC aktuell 16-32 GB, immerhin) und bei der Konsole sogar der gleiche Pool.

Somit alter Gedanke, aber offensichtlich besser umgesetzt. Mit mehr Hirnschmalz. Aber lassen wir uns überraschen, was Realität und was am Ende Marketing sein wird.

Ich erinnere mich auf alle Fälle an die AMD GPUs, die dank m.2 SSD dann schon vor Jahren bereits 8k Filme rendern konnten und nicht so an Arbeitsspeicher verhungert sind, wie andere Katten. Klar nicht mit Games vergleichbar, aber hier dürfte da doch am Ende einiges an Software eingeflossen sein. Entwickler dürften das bei den Dev-Kits vermutlich direkt verwenden können, ohne groß Gedanken machen zu müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Balikon
Thor-75 schrieb:
Für Normalverdiener mittlerweile uninterressant wenn schon das Lowmodell ne Monatsmiete kostet. Finds auch unverschämt was die Preise angeht mittlerweile.

Nicht nur als Normalverdiener ... wenn man überlegt das ja gerade Kinder angesprochen werden zum spielen ... die sind ja total abhängig von den Eltern... in dem Alter 30+ entscheidet man ja ganz anders darüber was man braucht und was nicht...
 
Bin mal auf die Preise gespannt. Schätze mal eine 3080Ti bekomme ich wohl nicht, wie eine 1080Ti damals, für 800,- €.
Eine Verdopplung des Preises (1600,- €) ist mir keine Grafikkarte (und schon gar nicht von nVidia) wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
wie sieht die av1 Unterstützung aus?

Kriegen die Linux Entwickler ihre Doku und Firmware innerhalb der ersten 20 Jahre?
 
  • Gefällt mir
Reaktionen: schneeland, JamesCarter und ThePlayer
MrNejo schrieb:
Ich verstehe das Argument der Konsolen nicht so ganz, 2013 bei Release der Xbox One und PS4 hatten die Topmodelle wenn ich jetzt nichts verhaue 6GB (Nvidia) und 4GB (AMD). .
Nur die Switch nutzt nVidia. Alle anderen nutzen den besseren Chip von AMD. Das war auch schon zu PS3 und Xbox 360 Zeiten so, wenn ich mich nicht irre.

https://en.wikipedia.org/wiki/Jaguar_(microarchitecture)
 
Tomahawk schrieb:
Ich glaube kaum, dass diese Werte stimmen. Die RTX 3080 wäre fast 50% schneller als die RTX 3070 Ti. Mehr als 25% zwischen diesen Karte halte ich für unrealistisch.

Nun das ist ja auch seit längerem wieder der Fall (Kepler), dass die 80er den grossen 102er Chip bekommt
und die 70 TI bekäme das erste mal den Kleineren als die 80er.
Aber bei dem Sezenario hier wäre mir die 70er auch zu nahe an der 70 TI.

Ausserdem wird der 4er meist höher getaktet als die 2er GPU.
Rein rechnerisch sind es mit gleichem Takt 30% zwischen 70 TI und 80.

Wenn die 80er wirklich den Grossen bekommt, macht NV das nur, wenn AMD mit nem fetten Brett am Start ist.
Das wäre wünschenswert!
 
Zuletzt bearbeitet:
Die 3070 / TI Mag ja Interessant sein aber 8 Gigabyte VRAM ohne mich.
 
  • Gefällt mir
Reaktionen: schneeland, Hatsune_Miku, fox40phil und eine weitere Person
Zurück
Oben