News Nvidia GeForce RTX 3080 Ti: Support-Website von Asus bestätigt Ampere mit 20 GB

DarkerThanBlack schrieb:
Jo. 1600 Euro ist ein echtes Schnäppchen. Wer da nicht zugeschlagen hat ist selbst schuld. 😊
Gehts dir jetzt um den generellen Preis der 3090 oder um den momentanen Aufpreis zur UVP? Entscheid dich. 1600 sind für gewisse Customs nun mal UVP. Und wenn man nicht bereit ist das zu zahlen, die FE bekommt man wie schon gesagt bei einem Drop ohne Probleme.
 
Die Karten müssten einfach mal besser verfügbar sein um die Preise wieder in normale Bahnen zu lenken.

Aber irgendwie werden gerade mehr Modelle auf Papier angekündigt als man sie derzeit überhaupt kaufen kann.
 
Eorzorian schrieb:
....
Und was mich vor allem überrascht, dass die ganze Diskussion auf die persönliche Ebene mit "Neid" und "nicht gönnen zu können" gebracht wird. Also wäre ich der Marketingleiter bei Nvidia, würde ich für diese gelungene Errungenschaft jeden Tag mich selbst feiern. Traurig sowas, aber auch dieser Zustand ist in allen Ebenen der Gesellschaft angekommen.
Ja und Nein :) So lang kein Mod eingreifen muss ist doch alles i.O.
Sind ja auch nur Menschen die hier unterwegs sind. Ich finde es sogar noch recht gesittet gegenüber manch anderem Forum. Solang niemand direkt beleidigt ist das doch hinnehmbar. Nichts was ein betroffener nicht selbst regeln könnte.

Ich glaube die Marketingleiter klopfen sich schon so sehr auf die Schultern das Sie eine Gehirnerschütterung davon getragen haben wenn man Nvidias Verhalten so verfolgt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sebulba und Cpt.Willard
Ach Nvidia...
Wieder eine Bestätigung für mich die 3000 Serie zu übersprimgen: wenn die Preise dann stimmen sollten wird , nach viele Jahre Nvidia, wieder eine AMD Graka sein.
 
Ich werd den Teufel tun, meine 3090 wieder zu verkaufen: Karte rennt, hat 4GByte mehr VRam und dieser ist auch noch fetter angebunden als bei einer kommenden 3080Ti.
Und ich komme bereits seit Oktober in den Genuß des Zockens mit der Karte und muss nicht mehr ewig drauf warten, um mich dann wenns geht noch mit Kaufbots und Scalperpreisen herumzuschlagen.
War eigentlich schon immer der Vorteil der Titan-User, den durfte man aber auch immer schon extra bezahlen.
 
  • Gefällt mir
Reaktionen: hahaqp, guillome und Raucherdackel!
der_Schmutzige schrieb:
Und ich komme bereits seit Oktober in den Genuß des Zockens mit der Karte und muss nicht mehr ewig drauf warten, um mich dann wenns geht noch mit Kaufbots und Scalperpreisen herumzuschlagen.
War eigentlich schon immer der Vorteil der Titan-User, den durfte man aber auch immer schon extra bezahlen.

Ja, so würde ich das auch sehen. Man kauft sich gleich die sündhaft teure Karte, dann muss man sich keine Gedanken mehr um die Halsabschneider machen. 😉 🤞
Ergänzung ()

Ano_Dezimal schrieb:
Sowas nennt man "Neid der Besitzilosen"... Schlag mich meinetwegen, ist aber trotzdem so :)
Meinen Post davor nicht verstanden? 🤔
 
Xechon schrieb:
Wollt gerade sagen. Ich mit meinem 1080p weiß gar nicht, was ich alles einschalten soll, damit der VRAM gefüllt wird. Wenn ich dann mal irgendwann auf 2K oder 4K umsteige (was auch immer mit der Größe des Bildschirms und damit automatisch mit dem Schreibtisch bzw. Platz im Allgemeinen zu tun hat), dann kann ich mir auch wieder mal ne neue GPU gönnen.
Mit Verlaub, das ist Blödsinn. Es gibt UHD auch auf 24", damit ist das Bild um Welten schärfer - der "alte" Schreibtisch kann dennoch bleiben.
 
Ano_Dezimal schrieb:
Sowas nennt man "Neid der Besitzilosen"... Schlag mich meinetwegen, ist aber trotzdem so :)
Invitatio ad offerendum? :D
 
Sulforia schrieb:
Ach Nvidia...
Wieder eine Bestätigung für mich die 3000 Serie zu übersprimgen: wenn die Preise dann stimmen sollten wird , nach viele Jahre Nvidia, wieder eine AMD Graka sein.
Was genau macht AMD jetzt besser? Frage mich wirklich, wieso noch niemand mit der Theorie um die Ecke gekommen ist, dass AMD sich extra mit der RT-Leistung zurückhält um dann nächstes Jahr direkt nochmal abzukassieren.
 
  • Gefällt mir
Reaktionen: hahaqp und AuroraFlash
orlof schrieb:
Was genau macht AMD jetzt besser? Frage mich wirklich, wieso noch niemand mit der Theorie um die Ecke gekommen ist, dass AMD sich extra mit der RT-Leistung zurückhält um dann nächstes Jahr direkt nochmal abzukassieren.
Einerseits kann das sein, andererseits würde ich auch sonst keine Grafikkarte ohne RayTracing mehr kaufen. Denn ohne RayTracing reichen auch ältere Generationen noch voll aus, um die neusten Spiele zu genießen. Wenn es überhaupt einen Kaufgrund gibt, dann ist es doch der, die grafischen Möglichkeiten voll auszureizen. Dazu braucht es eine RTX 3080 und einen Monitor mit 4K, 120 Hz und HDR. Bei AMD sieht die RT-Leistung so erbärmlich aus wie bei RTX-20-Karten der oberen Mittelklasse / unteren Oberklasse.

Nicht schlecht für den Anfang, aber im Grunde ohne Zukunft. In ein paar Jahren lacht man darüber, während die 30er-Serie von NVIDIA einen hohen Wiederverkaufswert behalten wird und auch auf dem Gebrauchtmarkt noch begehrt sein wird. Sorry, aber wer jetzt noch ohne RT plant, schaut einfach nicht über den Tellerrand.
 
  • Gefällt mir
Reaktionen: tox1337
Der Post war nicht ganz ernst gemeint :)

Davon abgesehen ist es ja eine Tatsache, dass Nvidia und AMD schon lange wissen, was die nächste Grafikkarten-Generation können wird und was nicht. Das hat aber überhaupt nichts mit den hier kursierenden Verschwörungstheorien zu tun. Sie wären ja schön blöd, alles rauszuhauen und dann erst in vier oder fünf Jahren wieder mit wirklich signifikanten Leistungssteigerungen und Features aufzukreuzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AuroraFlash
DiamondDog schrieb:
was bietet ein Plasma bei nem Abstand von 2 Meter was ein LCD nicht bietet. bzw. wieso Spielt der Abstand den Unterschied? Ich weiß dass Plasma den besten Schwarzwert hat, aber was da mit dem Abstand zutun hat ist mir neu.
Bei einem Abstand von 2m siehst du den Auflösungsunterschied von aktuell 4k zu meinem alten Full-HD Plasma nicht mehr. Und dann überwiegen die Vorteile des besseren Bildes. Farbtreue, statischer Kontrast, Schwarzwert, homogene Ausleuchtung.

DarkerThanBlack schrieb:
Jo. 1600 Euro ist ein echtes Schnäppchen. Wer da nicht zugeschlagen hat ist selbst schuld. 😊
Nuja, Angebot und Nachfrage. Ist ja nicht so, dass die Karten wie Blei in den Regalen liegen.
 
ro///M3o schrieb:
CP2077 1.06 in FHD auf Ultra auf einer 8GB Vega64 Ref @ UV mit Ryzen 3900X UV bei ca 40 bis 60FPS je nach Szene im neu aufgesetztem System, getrimmt auf Gaming. Also die Kombi GPU Leistung zu VRAM quasie perfekt / genau richtig. Mehr kann die GPU nicht aber klappt super in der Auflösung. Die Karte ist jetzt auch ca. 3 Jahre alt.Mit den neuen Karten für die Mittelklasse und sogar Einstigsklasse ist das ja durchaus machbar...
Jedoch sehr ärgerlich wird es, wenn es die GPU selbst locker schaffen würde, dann aber der VRAM ungenügend ausfällt. Einige meiner Freunde mit z.B. RTX2060 Karten, die gerade mal 1 bis 1,5Jahre "neu" sind, beklagen genau das. Die Karte "könnte"...

Also laut CB-Test läuft die vielgescholtene 6GB-RTX2060 besser als die 8GB-Karten Vega64 und GTX1080, nicht nur bei den Durchschnitts-FPS, sondern auch im 0,2%-Perzentil (35,4 fps statt 31,4 bzw. 28,4 fps):

6gb.png


So sehr scheint sich der Vorteil von 25% mehr Grafikspeicher bei Cyberpunk in FullHD also noch nicht auszuspielen (zumal sowohl GTX 1080 als auch Vega 64 eine theoretisch höhere Rechenleistung als die RTX 2060 haben). Wenn deine Freunde dann noch DLSS Quality auf ihren RTX2060 aktivieren, kann ich mir kaum vorstellen, dass sie ein schlechteres Spielerlebnis mit Cyberpunk 2077 haben als du mit deiner Vega 64... im Gegenteil.

ro///M3o schrieb:
Muss man immer auf so hohen Details spielen? In meinen Augen ein klares Ja. Auch wenn es nicht gleich 4K sein muss (noch viel zu teuer das Ecosystem), sollte man für das beste Spieleerlebniss, im weit verbreitetem FHD, nicht auf die Details verzichten müssen. Spiele auf die man sich lange gefreut hat und für den Vollpreis erworben hat, sollte man auch soweit es geht auskosten können. Meine Meinung! Sonst ist das wie Pommes ohne Salz, Currywurst ohne Curry, Kinofilm ohne Poppcorn.

Na, anscheinend hast du dann aber doch auf ein paar Details verzichtet, denn ansonsten sollte es ähnliche Einbrüche unter die 40 fps (und sogar unter 30 fps) geben, die auch der CB-Test für die Vega64 zeigt. Ist dann vielleicht doch wieder die zweithöchste Stufe bei einigen Reglern erlaubt? Natürlich abseits des Texturstufen-Reglers, der selbstverständlich immer auf Anschlag sein muss, selbst in FullHD (auch wenn man die unterschiede zwischen höchster und zweithöchter texturstufe oft mit der Lupe suchen muss).
 
  • Gefällt mir
Reaktionen: hahaqp, ro///M3o und DiamondDog
JackTheRippchen schrieb:
Mit Verlaub, das ist Blödsinn. Es gibt UHD auch auf 24",
Mit Verlaub, ist es nicht. Zeig mir doch mal den 23-25 Zoll IPS UHD-Bildschirm mit kleiner (< 2 ms) Reaktionszeit. Achja, gerne mit 144 Hz.

Bevor du suchst: Gibt es nicht, zumindest noch nicht.
 
Raucherdackel! schrieb:
Bei einem Abstand von 2m siehst du den Auflösungsunterschied von aktuell 4k zu meinem alten Full-HD Plasma nicht mehr. Und dann überwiegen die Vorteile des besseren Bildes. Farbtreue, statischer Kontrast, Schwarzwert, homogene Ausleuchtung.

Hab im zweiten Wohnzimmer auch noch nen älteren 50 Zoll FullHD-Panasonic Plasma (Abstand 2-4m), war erstaunt wie nah das Bild an die OLED-Fernseher rankommt und bei dem Abstand+Größe ist UHD (abgesehen von HDR) overkill.

Aber im Gamingraum würde ich immer wieder nen 4K OLED kaufen, dank des VRR-Bugs muss man zwar nen Framelimit für jedes Spiel einstellen, aber danach ist es einfach fantastisch.

@Topic
Nachdem ich nun doch noch eine normale 3080 sehr nah an der UVP bekommen hab, ist die 3080 Ti erst einmal vom Tisch, grundsätzlich sollten sich einige Leute allerdings mal Gedanken um die Diskussionskultur machen, nur weil sich Leute keine GPU für 400++ € leisten können ODER wollen, muss man nicht gleich pauschalisieren.
 
  • Gefällt mir
Reaktionen: mindfest, Sly123 und sebulba
Hoffentlich geht sich die 3080ti innerhalb des EVGA Step up Programms aus!
Habe noch 85 Tage Zeit upzugraden.
 
foo_1337 schrieb:
Weil?

@cyberpirate welche genug Benchmarks sollen das sein?

Schon der erste Test hier bei CB hat das vorrausgesagt. Auch einige User hier und in anderen Foren berichten über zu wenig VRAM wenn man seine Spiele max zocken will. Ich zitiere mal CB:

Der Speicher legt nur minimal zu


Eine kleine Schwachstelle ist der Speicherausbau. Ja, die GeForce RTX 3080 hat mit 10 GB mehr Speicher als die GeForce RTX 2080 (Super) mit 8 GB, aber mehr als die kleinstmögliche Verbesserung ist dies eben nicht. Die hat dabei durchaus bereits heute einen entscheidenden Effekt: 10 GB reichen, um alle Spiele im Testparcours mit und ohne Raytracing problemlos wiederzugeben, 8 GB ermöglichen das nicht. Bedenkenlos in die Zukunft geht man mit 10 GB aber nicht, vor allem in Anbetracht der Next-Gen-Konsolen ist noch völlig unklar, was mit den VRAM-Ansprüchen bei zukünftigen Spielen passieren wird.

Das meine Ich mit schön reden. Bei einer TOP Referent GraKa hätte ich persönlich min 16GB VRAm erwartet. Und wir sehen das der Marketing Zug von nVidia wie üblich prächtig funktioniert! Ich wette etliche 3080 werden günstig zu kaufen geben wenn die Ti kommt. Aber es soll doch jeder zufrieden sein wie er mag. Mein Ziel bei der nächsten GraKa steht fest. ich möchte sicher bei meinen Games (viele mit etlichen Mods) nicht im VRAM Limit landen. Auch kommen jetzt erst die ganzen Next Gen Spiele der neuen Konsolen auf den Markt.
Ergänzung ()

CR4NK schrieb:
Neben einer 3080 ti macht nur noch eine 3070 ti Sinn. Alles andere ist doch Quark.
Langsam füllen sich die Bestände der Händler. Egal ob Ryzen 5000 oder rtx 3000. Alles verfügbar, nur noch zu teuer

Marketing. Was denkst Du wie viele Ihre 10GB VRAM Krücke gerne und mit Aufpreis tauschen werden.
 
@cyberpirate Danke für die "genug Benchmarks". In deinem Text steht: "10 GB reichen, um alle Spiele im Testparcours mit und ohne Raytracing problemlos wiederzugeben"
Wenn du nicht liefern kannst, wieso behauptest du es dann? Klassisches FUD, wie der Marketing Heini von Godfall mit seinen angeblichen 12GB.
BTW: Das erste Next-Gen spiel, welches zumindest die last-gen Konsolen in die Knie zwingt, kommt mit weit unter 10GB VRAM in 4k aus:

1609342668736.png


Nächstes mal bitte: Vorher Recherchieren und dann mit Quellenangaben posten. Danke.
 
  • Gefällt mir
Reaktionen: Sly123 und Tom_1
@cyberpirate
Entweder du verstehst mich nicht oder ich dich nicht. Klar rüsten viele auf um mehr als 8-10 GB zu haben. Deswegen mein ich ja dass nur noch eine 3070ti neben der 3080ti Sinn macht.
 
Zurück
Oben