News GPU-Gerüchte: GeForce RTX 3080 Ti kommt mit 20 GB GDDR6X

Wenn AMD und NV jetzt anfangen alle 3 Monate eine neue Grafikkarte rauszubringen um den Konkurrenten um ein paar einstellige Prozent zu überbieten, kommt einem beim Aufrüsten das heulen.

Vor allem wenn die Produkte Vaporware sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benj
maisenkaier schrieb:
Bevor Nvidia irgendwelche neuen Produkte auf die Gerüchtereise schickt, sollte sie erst einmal bei den aktuellen Produkten liefern. Vom Lesen wird mein Rechner auch nicht schneller...ich hoffe nur, das AMD mehr in die Ladentheke stellen kann als beim Fake-Release von Nvidia.
Danke. Dass war auch mein erster Gedanke. Keine Karten liefern können aber schon von neuen Sachen erzählen. Früher nannte man solche leute babbler 😅
 
  • Gefällt mir
Reaktionen: maisenkaier
zwergimpc schrieb:
Bei den ganzen News was man in der Theorie alles erwerben könnte muss ich mittlerweile nur noch gähnen.


Ich mache das einfach so jetzt, ich setze ein Budget und lasse alle Gedanken daran, was wie welche Leistung usw. völlig ausser Acht. Und dann kaufe ich einfach für das Budget oder einen Tick weniger dann die Karte mit dem besten P/L-Verhältnis.
Damit muss ich mir dann keine Gedanken mehr machen, ob ichnicht doch auf dies oder das oder was auch immer warte oder spare.

Die Technik schaue ich mir natürlich trotzdem an, aber irgendwie war es ja auch klar, daß NVidia auch noch etwas gegen AMD positionieren muss.
Haben aber gut dichtgehalten und verwirrt mit der Absage der 20GB.
 
GHad schrieb:
Hm, verstehe ich nicht, wo ist denn da noch Platz zwischen einer 3080 und 3090?

Wenn jeder Hersteller schon alleine fünf und mehr Varianten von ein und demselben GPU Typ anbietet, dann sehe ich da auch noch Raum zwischen einer 3080 und ner 3080 und das ist jetzt kein Schreibfehler :D

Die 3090 kostet 1499 EUR und die 3080 699 EUR, also sind da mal eben 800 EUR Raum für Zwischenaufgüsse und auch oberhalb der 1499 EUR gibt es ja noch Raum bis zu den guten Quadros ;)
 
Coeckchen schrieb:
Die 3080 10GB vs 3080ti erinnert etwas an die 8800GTS 320MB vs 8800GTS 640MB :D Klar ging 320MB damals noch...

Die 320mb Variante war schon zu Release völlig lächerlich und schon im Vorhinein klar, dass der Speicher nicht im Ansatz reicht. Die 10GB sind aktuell und perspektivisch zumindest okay - die 320mb waren das zu keiner Zeit. Gott was war das für eine sinnfreie Karte :rolleyes:
 
blueGod schrieb:
Die 10GB sind aktuell und perspektivisch zumindest okay - die 320mb waren das zu keiner Zeit.
Das war ja der Witz. In den Standard- und 08/15-Einstellungen bzw. in den Balkendiagrammen schien die GTS 320 völlig ok zu sein: https://www.computerbase.de/artikel/grafikkarten/test-nvidia-geforce-8800-gts-320mb.639/seite-8
Ohne Anti-Aliasing sowie dem anisotropen Filter – wobei man sich hier natürlich fragen muss, wer derzeit bei einer GeForce 8800 ohne diese optischen Schmankerln überhaupt spielt – hat der halbierte VRAM von 640 MB auf 320 MB bei der GeForce 8800 GTS 320MB nur minimale Auswirkungen auf die Performance. In 1280x1024 beträgt der Rückstand auf die 640-MB-Grafikkarte nicht spürbare zwei Prozent, was wahrlich zu vernachlässigen ist. In 1600x1200 steigt der Speicherverbrauch an, was aber nur in einem kaum höheren Geschwindigkeitsverlust resultiert. Gerade einmal vier Prozent kann sich die 640-MB-Version von dem kleineren Bruder absetzen.
Der Punkt ist: die 320 MB-Version hatte sogar mehr als die handelsüblichen 256 MB der älteren Karten. Lustigerweise kursierte damals mit der GTS 320 der Begriff des "VRAM-Bug" durch die Foren, weil die Karte immer wieder an ihre Grenzen kam, weil der Speicher überlief ... Während die GTS 640 und natürlich die GTX mit 768MB lange nutzbar blieben, verschwand die GTS 320 schnell aus den Empfehlungen ...

Ich würde definitiv unterstreichen, dass die 8GB der 3070 und die 10GB der 3080 die Modelle schlicht auf mittlere Sicht merklich einschränken bzw. die Karten schlechter machen als sie wären, wenn Grafikqualität wichtig ist. Wenn man damit leben kann, prima, aber es sollte einen doch skeptisch machen, dass bereits vor 4 Jahren 8GB für eine GTX 1070/1080 üblich bzw. ok waren. Stagnation ist da noch ein freundlicher Begriff dafür. Spiele werden nicht kleiner und jeder möchte natürlich, dass Texturen besser werden.
Und bei einer Grafikkarte für 900 Euro oder so Kompromisse dieser Art eingehen? Finde ich persönlich eher so suboptimal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Deathangel008
Kazuya91 schrieb:
Und ich hier mit meiner RX 580 :D Einfach Regler bedienen und gut ist.
Leider ist es so das die Ultra G3M4R!!!! Alles auf Ultra spielen müssen. Bei einigen spielen merkst du nicht Mal einen Unterschied zwischen high und Ultra und hast einfach Mal 20 FPS mehr...selbst heute kann man noch mit einer RX 580 wunderbar spielen. Die Architektur ist von 2016 und immer noch bestens geeignet für full HD. Wieviel hat man damals für eine RX 480 bezahlt ? 200-220€ genauso für die RX 580.. wenn man weiß wie man die Regler bedient dann kann man damit getrost noch weiter spielen. Manchmal erhält man sogar noch dadurch einen Vorteil weil man die Gegner schneller sieht weil man unnötigen Kram auf niedrig stellt der dafür sorgt das man Gegner besser sieht ;)

Wenn man Mal das Alter der Polaris Architektur betrachtet dann ist es schon beachtlich wie der kleine Chips immer noch mit angepassten settings mithalten kann in FULL HD. Du kannst teilweise die Texturen hochschrauben und das kostet kaum fps und das Game sieht gut aus Dank der 8GB Vram.
 
  • Gefällt mir
Reaktionen: foo_1337
@Nahrungsmittel es kommt halt immer auf die eigenen ansprüche an. für 1080p medium settings 60 fps mag es vielleicht langen, aber soll auch leute geben die wollen mehr fps. und da langt von medium auf low stellen einfach nicht mehr
 
blueGod schrieb:
Die 320mb Variante war schon zu Release völlig lächerlich und schon im Vorhinein klar, dass der Speicher nicht im Ansatz reicht. Die 10GB sind aktuell und perspektivisch zumindest okay - die 320mb waren das zu keiner Zeit. Gott was war das für eine sinnfreie Karte :rolleyes:

Naja die Vorgängergenerationen hatten hauptsächlich 256MB oder weniger an Board von daher war das damals auch ein "Upgrade" :D

Und die Konsolen waren mit 512MB auch nich grad Üppig bestückt. Am Ende des Lebenszyclus hatten die GPU`s 3GB, Hauptspeicher von 16GB und die leute haben Geschriehen dass sie ihre grakas nich ausgelastet bekommen, da wurde dann DSR Populär, zumal 2k und 4k noch nich weit verbreitet waren 2012
 
Kommt mir vor, als wäre bei Nvidia irgendwo der Beutel mit den Süßigkeiten aufgerissen und nun ploppen irgendwie so völlig unmotiviert die Karten raus. Scheint ich lebe in einem Paralleluniversum, im anderen scheint es die Karten zuhauf zu geben.:rolleyes:
 
@Recharging Welcher Teil von "Gerücht" war jetzt unklar? ;)

Ich bedauere, dass es sich um ein Gerücht und keine Ankündigung handelt. Wenn an dem Gerücht etwas dran sein sollte, dann hoffe ich ja mal, dass nVidia die Ankündigung und Lieferbarkeit dieses Modells irgendwie noch vor Weihnachten auf die Kette bekommen. Die Karte würde sich sehr schön unter dem bei mir nicht vorhandenen Weihnachtsbaum machen :D . Ich glaube aber nicht, dass es so schnell etwas wird. Leider...

Dass trotz der geringen Leistungsdifferenz zwischen RTX 3080 und 3090 noch etwas kommen wird, ist evident, wenn man sich die große Preisdifferenz ansieht. Die Frage ist nicht 'ob', sondern 'was' und 'wann'.
Ich halte es nach wie vor auch nicht für völlig unmöglich, dass die 3080Ti sogar die 3090 leicht übertrifft. Früher waren auch die Ti Karten gelegentlich geringfügig schneller als die Titans und die RTX 3090 wird eher als Creator-Karte, denn als Gamer-Karte beworben. Insofern erscheint mir das nicht abwegig, dass die 3080Ti in Games sogar einen Tick schneller sein könnte.
 
Fred_VIE schrieb:
Wenn AMD und NV jetzt anfangen alle 3 Monate eine neue Grafikkarte rauszubringen um den Konkurrenten um ein paar einstellige Prozent zu überbieten, kommt einem beim Aufrüsten das heulen.
Viel früher wurde geweint weil eine neue Karte hermusste damit das Spiel nicht 5 FPS mehr hatte sondern überhaupt erst lief. Ich glaube manche Kids sollte man in diese Zeit versetzen. Allerdings müsste man dann vermutlich die Kapazitäten der Rettungsdienste aufstocken weil die Reihenweise Herzinfarkte hätten 🤪

@Topic
Das ist schon fast "lästig" irgendwie. Alle naselang ein neues Gerücht oder (angebliche) Neuankündigung die eigentlich nichts mehr ist als heiße Luft. Wirkt auf mich schon so ein bisschen als würde NV im Gespräch bleiben wollen mit der Hoffnung das die Leute dann doch auf eine ihrer Karten warten anstatt eine möglicherweise verfügbare Karte aus dem roten Lager zu kaufen.
Das ist jetzt nur mein persönlicher! Eindruck, mich tangiert das nur am Rande (Laptopkarten lassen sich so schwer tauschen :P), aber bisschen auffällig ist's schon.
 
  • Gefällt mir
Reaktionen: Coeckchen
NVIDIA Titan XP = 250W / 16nm
NVIDIA Titan RTX = 280W / 12nm
GeForce RTX 3090 = 350W / 8 nm
Immer das absolute Topmodell der jeweiligen Generation.

Zwischen der Titan RTX und der 3090 liegen 2 Jahre sowie 4nm in der Strukturbreite.
Tatsächlich gehen die 33% Strukturverbesserung in 25% mehr Performance über. Was mir aber nicht klar wird, warum die RTX 3090 "ZUSÄTZLICH" auch noch 25% mehr Energie benötigt wird? Das Verhältnis verschiebt sich sicher etwas mehr zugunsten der 3090 wenn RT Aktiviert wird. Aber trotzdem... 2 Jahre?! Die haben gepennt und sich auf Ihrem Erfolg ausgeruht.

Also tatsächlich würde ich nun so einen Effizienzschritt von NV erwarten müssen wie es AMD zwischen Radeon VII und 5700XT gemacht hat. Wo soll das hin? Absurd das CD's schon ca. 500W mit "EINEM" GPU Core anbieten. 365W hatte die letzte DUAL GPU Karte von NV.

Wenn man das mal AMD ggü. stellt, im Fall von VEGA 20 zu NAVI 10 bis NAVI 20, dann ist das schon sehr Interessant.

RADEON VII = 300W / 7 nm
Radeon 5700XT = 225W / 7 nm
Radeon 6900XT = 300W / 7 nm​

VEGA 20 ---> NAVI 10
Strukturverbesserung 0%
Energieverbrauch - 25%
Leistungssteigerung + 0%

NAVI 10 ---> NAVI 20
Strukturverbesserung 0%
Energieverbrauch + 33%
Leistungssteigerung + 100%

NAVI 20 ---> NAVI 30
Strukturverbesserung 28%
Energieverbrauch (geringer?)
Leistungssteigerung (+ 50%???)

Ich sehe den Druck auf NV gerade erst beginnen... werden Interessante Jahre.
Technisch sehe ich die Radeon vorne, auch wenn es jetzt auf der Performance ebene nicht reichen sollte, ist das schon ein wirklich fein durchdachtes Stück Silizium.

Das ganze wollt ich jetzt mal auf Papier bringen, da ich grad drüber Nachdenke ob AMD eine Antwort auf die 3080Ti bringen sollte? Also vom Effizienz Gedanken hats AMD nicht nötig. Vom Presige Gedanken eine 350W - 375W Version als Konter machbar, wenn auch nicht vernünftig.
 
  • Gefällt mir
Reaktionen: dohderbert
Um AMD voraus zu sein, würde jetzt eine 3090Ti Sinn machen:freak:
Vielleicht würde sie erst flächendeckend lieferbar sein, wenn die 4000er Gen von nVidia rauskommt.

ACHTUNG!: Meine Antwort kann Ironie, Sarkasmus und Zynismus enthalten.
Tip beim Zitieren: Denken, Drücken, Sprechen!
 
Zuletzt bearbeitet:
es soll zwischen RTX 3080 und RTX 3090 liegen?? Da ist gerade mal Luft für 5-10 Frames. Kann ich mir nicht vorstellen, aber ist ja nur ein Gerücht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
BlackRain85 schrieb:
Ich sehe den Druck auf NV gerade erst beginnen... werden Interessante Jahre.
Technisch sehe ich die Radeon vorne, auch wenn es jetzt auf der Performance ebene nicht reichen sollte, ist das schon ein wirklich fein durchdachtes Stück Silizium.

sehe ich genauso. AMD wird jetzt schon an einem Shrink (5nm ?) arbeiten.... Nvidia wird vielleicht sein High End line up zurück zu TSMC bringen ... nur das macht man das nicht mal eben... und AMD ist hier mittlerweile neben Apple Lead Customer....
 
Zurück
Oben