News GPU-Gerüchte: Hinweise auf GeForce RTX 3070 (Ti) mit GA104

Bin mal auf die Preise gespannt. Ich bin mir sicher, dass die 3090 in 4k richtig abrocken wird in punkto 4k60 mit Details auf Ultra (nicht ingame max).
 
Ich hoffe ein Upgrade, egal ob AMD oder NV, hauptsache es lohnt sich für ne 2080ti ersetzt zu werden mit mindestens 50% mehr leistung. Meine Pfeifft aus dem letzten loch bei 5120x1440 mit 120hz. Aber diesmal bitte nicht 50% mehr preis :D

edit:
Project-X schrieb:
Diesen Lüfter für den Chipsatz macht mich Wahnsinnig! Mein PC ist eigentlich sehr leise, aber der Lüfter macht wieder alles kaputt und stört mich Tierisch! Einstellungen im Bios / Blende abbau hat alles nichts gebracht. 😤

Schnall doch nen 80er drauf und lass den mit 500rpm laufen. Nicht elegant aber funktioniert :D
 
  • Gefällt mir
Reaktionen: -Snaggletooth-, Bright0001 und PS828
Das mit dem Preis hoffen wir doch alle. Aber mal sehen. Dann muss auch im Low end was passieren
 
Project-X schrieb:
Der Absurdeste dabei ist, nur weil ich nicht mit mein ASUS ROG Strix X570-E Motherboard zufrieden bin, will ich mein System inkl. CPU Upgraden 😁
Diesen Lüfter für den Chipsatz macht mich Wahnsinnig! Mein PC ist eigentlich sehr leise, aber der Lüfter macht wieder alles kaputt und stört mich Tierisch! Einstellungen im Bios / Blende abbau hat alles nichts gebracht. 😤
https://www.hardwareluxx.de/communi...g-x570-i-gaming.1236042/page-63#post-27570367
Das Modbios hast du versucht? Da kannst du StartTemperatur für den Chipsatz Lüfter einstellen.
 
Die Grafikkarten werden durch ihre limitierende VRAM veraltet sein bevor Sie an ihre Leistungsgrenze stoßen, sollte es wirklich so kommen. Für Nvidia bestimmt gutes Geschäft, aber für uns wiederum noch eine künstlich beschnitte Grafikkartenserie von Nvidia
 
  • Gefällt mir
Reaktionen: fox40phil
Eorzorian schrieb:
Die Grafikkarten werden durch ihre limitierende VRAM veraltet sein bevor Sie an ihre Leistungsgrenze stoßen, sollte es wirklich so kommen. Für Nvidia bestimmt gutes Geschäft, aber für uns wiederum noch eine künstlich beschnitte Grafikkartenserie von Nvidia
dann spielst du andere games als einige andere.

an vram mangelt es beim großteil der games defintiv nicht sondern an fehlender rohleistung und zwar deutlich.

vram ist derzeit das geringste problem

EDIT : warum werden schon wieder beiträge ins aquarium verschoben?...........

kriegt man wieder richtig lust hier
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: AwesomSTUFF, milliardo, -Snaggletooth- und eine weitere Person
Ripcord schrieb:
Zurück zu geringerer Auflösung geht aber jetzt nicht mehr...

Nun wo ich schon länger bei 4K angekommen bin, möchte ich auch nicht mehr zurück, die Pixeldichte ist nun aber so hoch, dass ich nicht sehe irgendwann auf 8K Gaming zwingend upgraden zu müssen. 4K langt mir locker für Monitorgrößen von 32" bis 48". Bei 48" muss man ja auch zwangsläufig mehr Sichtabstand nehmen.

Meine 2080Ti langt auch nicht für alle Spieletitel auf 4K60 in Ultra konstant. Aber jede neue Graka Gen. wird mich von nun an auf immer neue fps Höhen hiefen. Jedenfalls hoffe ich das. Die Spiele Entwickler werden da natürlich schön gegen an arbeiten.
Wenn ich irgendwann mal mit Gsync oder Freesync auf 4k90-120 auf Ultra lande, bin ich zufrieden.
 
robertsonson schrieb:
ich hab in meiner bald 20-jährigen grafikkarten-historie niemals zwei karten mit derselben speichergröße und immer "mittelklasse" gekauft. der speicher wurde immer mindestens verdoppelt, teils vervierfacht. und jetzt soll ich nach 4 jahren 1070 erneut 8 gig kaufen? näh. könnse behalten.
Oder wie bei der 5600XT sogar ein Downgrade von einer RX480 8GB :D.... einfach heftig solche Entwicklungen!
Da hätte man uns für bekloppt erklärt, hätten wir das vor 10-15 Jahren wem prophezeit!
 
Ich bin gespannt, wie die Preise der Gaming-Amperes ausfallen. Dass die Karten (viel) schneller werden steht wohl außer Frage, aber ob ich eine Neuanschaffung mache wird derzeit auch stark davon abhängen wie die Preise speziell von der 3080 und der 3090 ausfallen werden. Etwas mehr VRAM und etwas mehr Leistung können nie schaden. :D Aber nach krass mehr Leistung werde ich wohl erst zu Cyberpunk 2077 schreien.

Was die Sache mit dem VRAM angeht...
Rein auf mich bezogen: Ich bezweifle, dass ich meine nächste Grafikkarte so lange nutze, als dass ich aus dem mehr an VRAM bei der Konkurrenz nennenswerte Vorteile ziehe. Da nehme ich lieber die höhere Rechenleistung der NVidia-Karten mit - bis ich aus dem mehr an VRAM (bei AMD/einer langsameren Karte) einen Nutzen ziehe, sind die Karten eh schon längst ersetzt. Ums mal einfacher auszudrücken: Keine Frage, ne R9 390(X) mit 8GB VRAM ist wesentlich besser gealtert und in neueren Titeln auch schneller wie ne GTX970/980, aber alle diese Karten wären mir schon vor ner Weile zu langsam gewesen. :D

Aber prinzipiell verhält es sich mit VRAM ziemlich ähnlich wie mit RAM: Unter Umständen reicht auch weniger (V)RAM, aber mit mehr (V)RAM erhält man die besseren Frametimes, ein besseres Percentile und die besseren Mindest-FPS.

Nur bringt es nix zwei verschiedene Grafikkarten/GPUs zu vergleichen, von denen eine 8GB und eine 12GB VRAM hat. Am Ende kommt es noch auf viel mehr an, wie gut die Karte dann performt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, MrNejo und Pisaro
redlabour schrieb:
Das ist falsch. Die Konsolen werden VRAM lediglich mit mehr Daten belegen um ihre sonstigen Nachteile auszugleichen.
Welche sonstigen Nachteile? Die sollten in allen Belangen (abgesehen von RAM Menge) besser sein, als das in deiner Signatur.
Von Grafikpracht/Watt gar nicht zu sprechen.

Edit: und auf dem läuft doch auch alles, oder?

Zudem wird der PC die neue Bremse werden. Nvme SSD gg HDD als min requirement.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
Sekorhex schrieb:
Die 1080ti ist doch schon verdammt schnell wieso ersetzen? :s

Ich muss meine 1080 Ti auch zwingend ersetzen. Seitdem ich einen 3440x1440 @100 Hz Monitor habe ist meine GPU am Ende. Da gibt es Spiele die stelle ich auf Mittel/hoch ein und habe da 45 avg FPS. Das ist mir persönlich viel zu wenig.

Piecemaker schrieb:
Das ein hier genanntes ARK den VRAM zum Überlaufen bringt, und übrigens auch den RAM, liegt daran das es grottenschlecht optimiert wurde.

Natürlich ist Ark mies optimiert. Ändert leider nichts daran das dass mein meist gespieltes Spiel ist (bzw war, zu wenig FPS mit dem neuen Monitor, da geht es erst mit den nächsten GPUs bei mir weiter) und ich da 8GB einfach nicht gebrauchen kann.

Ich rede von meinem Fall. Wahrscheinlich reichen 95% der anderen User 8GB vollkommen aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TorgardGraufell
da ich nur wenige games zocke, wird wohl meine 1070 gtx auch die 3000er generation von nvidia einfach überspringen. 4k mit 60hz geht auch mit meiner oldtimer karte;)
 
  • Gefällt mir
Reaktionen: KamfPudding
Als RTX 2080 Besitzer freut mich das, wenn die 3070 Ti und 3070 "nur" 8GB VRAM haben wird, dann kann ich meine noch gut verkaufen.
 
Zuletzt bearbeitet:
redlabour schrieb:
Weil der Mainstream immer noch mit 4-6 GByte rumdödelt. 8GByte sind immer noch HighEnd und alles darüber mindestens noch 2 Jahre Marketinggeblöddel. Der schnellere RAM rechtfertigt zusammen mit RTX ein Upgrade deutlich.
hat nvidia dir den kopf gewaschen?

8gb sind bei amd/radeon schon lange untere mittelklasse/einsteiger. den 5600 unfall ignorieren wir mal.
 
Wenn Nvidia tatsächlich die Preise leicht senken sollte, wäre das vielleicht unter Umständen möglicherweise ein Hinweis auf ein echtes Battle zwischen Nvidia und AMD?
 
Langsam wird das mit dem Speicherausbau doch lächerlich. gibts jetzt schon seit über 4 Jahren (R9 390) und 2 neuen Architekturen für 300-400€. Wird langsam mal Zeit für etwas mehr.
 
Synxalot schrieb:
weil sein Besitzer mal Lust auf was neues hat. Immer diese Sinnbefreite Geldvernichtung auch Hobby genannt :D

Ich kenn das gut :D
Habe gerade zum Ghost S1 MK2 noch ein MK3 bestellt.... und ein FormD T1 kommt auch noch, sobald ich Glück bei einer Charge habe und schnell genug eins ergattere (die erste Charge war nach 2 Minuten ausverkauft).

Zum Thema: Ich warte ab, was RDNA2 zu bieten hat und entscheide dann nach Preis und Effizienz.
Wenn's ne RTX wird, dann wohl ne XX80.
 
Zurück
Oben