Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080
- Ersteller Wolfgang
- Erstellt am
- Zur News: Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080
Das traurigste an dem VRAM geknausere ist, dass auch im Mainstream (bis 300€), den eigentlich die meisten Leute kaufen garnix weitergeht.
Seit über 5 Jahren stehen wir bei 8 GB. (4/8 bei AMD, 3/6 Nvidia)
Meine Hoffnung ist ja dass die 5600xt mit ihren eigenartigen 6GB ein Vorbote war für die neue AMD Mittelklasse mit 6 / 12.
Seit über 5 Jahren stehen wir bei 8 GB. (4/8 bei AMD, 3/6 Nvidia)
Meine Hoffnung ist ja dass die 5600xt mit ihren eigenartigen 6GB ein Vorbote war für die neue AMD Mittelklasse mit 6 / 12.
Zuletzt bearbeitet:
cypeak schrieb:@Taxxor
aber die statistiken sprechen auch eine andere sprache - gerademal 1/4 der user hat 8gb oder mehr im system.
wäre ich entwickler, würde ich einen teil der restlichen 3/4 user durchaus als potentiellen kunden betrachten wollen.
Für Texturqualität auf low/medium/high klar, man will sein Spiel allen zugänglich machen. Aber was hält Entwickler davon ab in den höheren Stufen eine weitaus höhere Menge an Ram zu beanspruchen? Wenn es dann wirklich so viel besser aussehen würde wäre dass doch eine geile Aussage als Entwickler "Seht her, das würde mit 16/24 GB VRAM gehen, wir können das liefern, aber die Hersteller bauen einfach nicht genug drauf". War doch früher auch so, heute machts keiner. Warum weiß ich nicht, aber die Hersteller werden durch vorhandenes Material nicht unter Zugzwang gesetzt.
Und nur 24 GB drauf zu packen for the fun of it ist aus Herstellersicht nicht logisch. Wobei mich das ein bisschen an die Zeit vor 15-20 Jahren erinnert wo es Sachen wie eine Radeon 9250 SE oder eine Geforce 6600 mit 256 MB VRAM gab an einem 128 bit Interface. Die reine Rohleistung der Karte hat das einfach nicht gebraucht aber bei den Komplett PCs stand dann auf der Werbung fett "256 MB GRAFIKKARTE!!!!" drauf.
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.810
Das hat er gesagt:Nureinnickname! schrieb:Wo kommt eig das Gerücht her das Bill Gates sowas behauptet hätte?
This rumor refuses to die in spite of his repeated public protestations. "I've said some stupid things and some wrong things, but not that. No one involved in computers would ever say that a certain amount of memory is enough for all time."
romeeee schrieb:Für Texturqualität auf low/medium/high klar, man will sein Spiel allen zugänglich machen. Aber was hält Entwickler davon ab in den höheren Stufen eine weitaus höhere Menge an Ram zu beanspruchen? Wenn es dann wirklich so viel besser aussehen würde wäre dass doch eine geile Aussage als Entwickler "Seht her, das würde mit 16/24 GB VRAM gehen, wir können das liefern, aber die Hersteller bauen einfach nicht genug drauf". War doch früher auch so, heute machts keiner. Warum weiß ich nicht, aber die Hersteller werden durch vorhandenes Material nicht unter Zugzwang gesetzt.
Wird sich wohl nicht lohnen für die Enthusiasten extra den Aufwand in kauf zu nehmen. Richtig lohnen würde es sich ja nicht nur die Texturen höher aufzulösen, sondern auch den Detailgrad zu erhöhen. Und wenn dann noch die LODs deutlich besser werden sollen, wäre das schon mit einem erheblichen Mehraufwand verbunden.
Es fehlt halt leider auch schon länger ein Spiel wie Crysis, dass darauf hin entwickelt wurde die aktuelle Hardware zu überfordern und einen deutlichen Sprung in der Grafikqualität zu machen.
O
Oneplusfan
Gast
Ein Spiel wie Crysis heute wäre wohl zu großen Teilen geraytraced (anders ist ein großer grafischer Sprung nur mit enormen Mehraufwand noch machbar).
Angenommen das würde bei 720p 30fps auf einer 2080ti laufen, dann würde ich es mir trotzdem noch ansehen (sollte dann aber auch wirklich wie diese Trailer auch im Spiel aussehen). Aber lohnt sich das so ein Spiel zu entwickeln, was hinterher nur auf 0,1% aller PCs "läuft"?
Wenn die Konsolen raus sind, kann man die Lage hoffentlich neu bewerten.
Angenommen das würde bei 720p 30fps auf einer 2080ti laufen, dann würde ich es mir trotzdem noch ansehen (sollte dann aber auch wirklich wie diese Trailer auch im Spiel aussehen). Aber lohnt sich das so ein Spiel zu entwickeln, was hinterher nur auf 0,1% aller PCs "läuft"?
Wenn die Konsolen raus sind, kann man die Lage hoffentlich neu bewerten.
iceshield
Lt. Commander
- Registriert
- Nov. 2003
- Beiträge
- 1.372
Meine Vermutung:
Es ist wahrscheinlich davon auszugehen, dass AMD sich an den nVidia Preisen orientieren wird.
D.h. Wir werden erstmal exorbitante Preise sehen, die in keinem Verhältins zur Leistung stehen.
Schade, diese Entwicklung.
Es wird ein heisser Herbst
Es ist wahrscheinlich davon auszugehen, dass AMD sich an den nVidia Preisen orientieren wird.
D.h. Wir werden erstmal exorbitante Preise sehen, die in keinem Verhältins zur Leistung stehen.
Schade, diese Entwicklung.
Es wird ein heisser Herbst
Zuletzt bearbeitet:
IXI_HADES_IXI
Commodore
- Registriert
- Apr. 2006
- Beiträge
- 4.248
7hyrael schrieb:10GB ? dann können sie sich die aber mal ganz geflissentlich in den allerwertesten schieben. Unter 16GB geb ich sicher keine fast 2000€ aus...
16 GB wären dir dann fast 2000 Euro Wert für eine einzelne Grafikkarte ohne zu Wissen wie gut die Leistung aus fällt und ob 16 GB überhaupt ausgelastet werden?
Fast 2000 Euro gebe ich für keine Gaming-Grafikkarte aus, auch nicht für eine EVGA King PIN! Solche Preise wären extrem übertrieben. Sind die jetzigen 2080 TI Preise schon sehr stark überzogen, aber anscheinend gibt es wirklich so Viele die so etwas ohne zu Murren hin nehmen.... PL technisch wird das dann so leider nicht besser!
Für 2000 Euro bekomme ich vermutlich eine PS5 und einen schönen OLED noch dazu...
Zuletzt bearbeitet:
DerKonfigurator
Commodore
- Registriert
- Jan. 2015
- Beiträge
- 4.460
Und doch werden es genug Leute kaufen. Einfach Nvidia Logo drauf, Its meant to be played oder eine ähnliche hohle Phrase auf die Packung und natürlich ganz viel RGB, dann kann man auch mal 300€ mehr verlangen...iceshield schrieb:Schade, diese Entwicklung.
K
KlaraElfer
Gast
Zotac2012 schrieb:Da könnte ich genauso sagen, was ist wenn die Welt sich morgen in die andere Richtung dreht, läuft die Zeit dann rückwärts? Jeder der sich ein bisschen mit der Thematik beschäftigt und im Enthusiasten Bereich unterwegs ist, der weiß schon ungefähr was er an Geld haben sollte, um sich ein entsprechendes Ampere leisten zu können.
Das ist wie mit den Youtube Experten die bei der Corona Krise eine große inflationsbringende Wirtschaftskrise mit existenzvernichtenden Auswirkungen für jedermann herbeigeredet haben.
Niemand kann sagen wie die Preise ausfallen, vor allem weil es jetzt Konkurrenz mit AMDs Big Navi gibt, da gibt es alleine schon ein bisschen günstigere Preise, damit man sein Zeug los wird, denn AMD will auch etwas vom High End Kuchen und da müssen die einfach vom Preis ein wenig anziehen.
Ich erwarte ehrlich gesagt die RTX 3090 für 999 Dollar, die 3080 für 699 und die Titan RTX für 2499 oder vielleicht sogar 1999. Wenn AMD konkurrenzfähig ist. Und AMD ist denke ich sehr stark, umsonst geht man nicht Richtung >300 Watt TDP.
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.838
Und ich erinnere mich dran, wie man in Quake 3 versuchte möglichst weit über den 60 FPS zu sein, weil man ja nie unter 60 fallen wollte, das wäre ja sonst im LAN ein massiver nachteil gewesen. Texturen? Stören eh nur, Effekte? Lenkt nur ab. Lach, irgendwann sahen dann unsere Quake installation etwa so aus, wie man heute noch Q3 Arena spielt. ;-)>_< schrieb:Ich erinnere mich noch gut an die Zeit, als 2008 bei CoD4 oder Crysis immer nur geschaut wurde, ob die magische 30 FPS Grenze erreicht wird oder nicht, also kommt mal wieder von eurem 240 Hz und FPS Hype runter!
Ergänzung ()
Da bin ich gespannt, vielleicht Sony mit Titeln die eigentlich PS5 exklusive sein sollten, nur um PC Nutzer zur PS5 zu ziehen? ;-)Alphanerd schrieb:Und wer traut sich, die nvme SSD als Minimum zu setzen? Und wann?
Oder wir sehen das bei Star Citizen, das ohne SSD ja jetzt schon Probleme mit dem Objekt Container Streaming bekommen kann. Etwas das auch für andere Spiele interessant sein dürfte. Große offene Welten ohne Ladescreen brauchen halt schnellen Storage oder procedural generierte Umgebungen.
Zuletzt bearbeitet:
S
Sulforia
Gast
Da bin ich ja froh dass ich weder WQHD noch UHD brauche... wozu denn auch?
Mein 24 Zoll FHD + GTX 1080 wird mir noch lange reichen: bisher habe/hatte nie Leistung oder VRAM probleme bei max Details (AA und Schärfentiefe schalte ich grundzätlich aus!), egal ob RDR2 oder BF V oder egal was für ein Spiel...
Mein 24 Zoll FHD + GTX 1080 wird mir noch lange reichen: bisher habe/hatte nie Leistung oder VRAM probleme bei max Details (AA und Schärfentiefe schalte ich grundzätlich aus!), egal ob RDR2 oder BF V oder egal was für ein Spiel...
Zuletzt bearbeitet von einem Moderator:
Knito
Commander
- Registriert
- Sep. 2010
- Beiträge
- 2.323
Mehr als 25 FPS kann das menschliche Auge eh nicht sehen. 🤓PS828 schrieb:Solange 25 bis 30 fps minimum sind passts
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.781
Taxxor schrieb:Ja mit den 10GB ist man dan exakt auf dem Stand der Series X. Und somit können für PC Ports auch durchaus 10GB VRAM für die Ultra Texturen benötigt werden.
das ist schon immer so gewesen: konsolen kommen heraus und legen vor - zwei jahre später ist die durchnittsgraka leistungsfähiger als konsolen der aktuellen generation.
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.838
Ein aktueller R3 / i3 ist genug für Gaming. ;-)Zock schrieb:Warzone ruckelt bei mir was kann ich machen. Als mein gegenüber dann so meinte sein Rechner ist noch nicht so alt und die zwei Wörter vielen 4 Kerne und 970 bin ich bald abgebrochen. Leute haben Vorstellungen.
Und die zwar antike R9 290 ais der gleichen Zeit wie die 970 muss jetzt auch nicht wirklich ruckeln. Die Regler gehören halt heute ehr ganz nach links als ganz nach rechts.
Aber ja, schmunzeln musste ich auch bei "gar nicht so alt"
Ergänzung ()
Gegenbeispiel PS3. GPU auf 7800 level, praktisch zeitgleicher Release der 8800 mit ~100% mehr an Leistung. Und dabei war man im Vorfeld noch so begeistert von dem sündhaft teuren Grafikchip, aber nvidia hat danach dann auch keine Aufträge mehr von Konsolen Herstellern bekommen …cypeak schrieb:das ist schon immer so gewesen: konsolen kommen heraus und legen vor - zwei jahre später ist die durchnittsgraka leistungsfähiger als konsolen der aktuellen generation.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.630
Ich weiss ja- Und ich weiss auch, dass Du mit Deinem Post noch am wenigsten in die Richtung tendierst, die ich hier aufzeigen wollteZotac2012 schrieb:Hat auch keiner behauptet, Fakt ist nun mal, das es schon seit Wochen die Spekulation um ein RTX 3090 gibt, daher habe ich diese auch erwähnt, zudem wurde diese explizit vom User genannt!
Ja- Das liegt im Bereich des Möglichen, ebenso wie es im Bereich des Möglichen liegt, dass es 1500 oder 2000€ für eine 3080Ti werden können.Klar, vermutlich kommt auch dann direkt der Weihnachtsmann vorbei und bringt Dir eine RTX 3080Ti für unter 1000,00 Euro und legt diese Versandkostenfrei unter den Weihnachtsbaum.
Nur ist der Preis eben nicht das entscheidende Kriterium. Entscheidend ist, wieviel Leistung/Spaß man für sein Geld erhält.
Wie gesagt- Gerade Maxwell hat ja mit der 970 einen Preis-/Leistungskracher hingelegt. Deswegen ist das ein ungünstiges Beispiel.Allein schon die beiden letzten Generationen mit Maxwell und auch Turing sprechen gegen Deine Argumentation, die waren auch jeweils teurer als ihre Vorgänger.
Na klar- Irgendwie muss es ja im Grafiksektor vorangehen. Und zum Glück erkennt Herr Huang diverse Sackgassen am Horizont auftauchen und setzt weiter auf Innovation, obwohl er es -der Konkurrenzlage geschuldet- garnicht müsste.Bisher hat sich CEO Jen-Hsung Huang immer etwas einfallen lassen, wie er seine Preise mit irgendwelchen unverzichtbaren und innovativen Features rechtfertigt, warum sollte das diesmal anders sein? Und wenn Ihm die Argumente mal ausgehen, dann gibt es ja auch noch Holzatrappen!
....welches dann in der Praxis doch so gut wie keine Auswirkungen hatte. Du kannst auch heute mit einer 970gtx gut zurecht kommen, esseidenn es muss über Fullhd sein und die Ultra Extreme- Settings.Der war gut! Ja, Nvidia war schon immer für seine großzügige und soziale Ader bekannt. Was hat die Welt gejubelt bei der GTX 970 ... die gesamte Online Journallie und Fachpresse in diesem Bereich hinters Licht geführt wurde, mit Ihrem VRam-Desaster!
Die "schlichten" Modelle, die den anderen Modellen leistungstechnisch kaum oder überhaupt nicht nachstehen?Ach gottchen, weil hier und da mal eins der schlichteren Modelle, die sonst eh keiner wirklich haben will, etwas günstiger angeboten wurden, da hat sich Nvidia bestimmt ruiniert!
Eben- Allein daran und anhand der Preisgestaltung der letzten Grafikkartenreihen von AMD sieht man doch, dass diese offenbar nicht wirklich günstig herzustellen sind. Sonst hätte AMD dort auch schon längst massive Schläge verteilt.Naja, man braucht halt nur eins und eins zusammenzählen, das sollte eigentlich jeder können. Was AMD betrifft, so hat das Nvidia die letzten Jahre noch nie gestört, deswegen ihre Preise massiv zu senken.
Genau das!Zumal auch die etwas besseren Grafikkarten von AMD jetzt auch nicht für 3,60 Euro über die Ladentheke gingen. Nur gab es leider in den letzten 4.Jahren nicht wirklich etwas Adäquates von AMD im Enthusiasten Bereich, von daher muss man erst mal warten was AMD mit Big Navi wirklich zu bieten hat und vor allem auch zu welchem Preis!
Man sollte sich einfach von dem Gedanken verabschieden, dass die IT in Sachen Markt und Innovation eine Ausnahme darstellt... Ich frage mich, woher dieses Anspruchsdenken überhaupt kommt.War doch immer so und am Ende musste man bei den Preisen der neuen Generation mal ordentlich Schlucken, vor allem bei Turing, aber es gibt doch genügend Kunden die solche Preise bezahlen und auch rechtfertigen, von daher wird es auch diesmal nicht anders sein.
Mir wäre es lieb, wenn NVIDIA die Grafikkarten sogar noch weiter nach oben staffelt.
Bei Flachbildschirmen regt sich doch auch niemand auf, dass das neue 8K Modell mit 120Hz 5000,-€ kostet
Es würde sich auch niemand aufregen, wenn ein 16K Modell für 15.000,-€ auf den Markt geworfen würde.
Nur beim PC hat es sich, warum auch immer, eingebürgert, dass High- End oder Enthusiast nichts mehr kosten darf.
Und wenn dann doch mal etwas aus der Art schlägt, ist es gleich Betrug, Abzocke und wie auch immer...
Als ob einen der Hersteller zu irgendwas zwingen würde bzw. mit der Knarre neben einem Stünde mit der Drohung einen zu erschießen, wenn man nicht seine überteuerten Produkte kaufen würde.
Das geht sogar so weit, dass viele hier ja quasi persönlich beleidigt sind, wenn der Hersteller ihm die persönlich gewünschte Leistung nicht zum persönlich beliebigen Preis liefert.
Hegt man auch einen Groll auf High- End- Audiogerätschaften für 100.000€ oder auf Ferrari, weil die Fahrzeuge völlig überteuert sind?
Man gesteht schnöder Computerhardware heutzutage überhaupt keinen Wert mehr zu, erwartet aber weiterhin Leistungsexplosionen und in Lichtgeschwindigkeit fortschreitende Innovation-> Selbstverständlich zu immer niedrigeren Preisen. Ist doch egal, dass F&E+Fertigung mit jeder Generation schon fast exponential mehr Geld verschlingt.
Dabei ist die Leistung, die man heutzutage für geringes Geld im Computersektor erhält, fast schon überbordend hoch.
Aber diesbezüglich ist der normale User da genau das, was er den Herstellern immer vorwirft -> Gierig.
Es muss immer mehr sein, immer billiger... Und geht irgendwas nicht mit den eigenen Preisvorstellungen konform (Musik, Videos, Spiele), dann holt man sie sich eben "kostenlos" auf einschlägigen Portalen.
Von mir aus kann NVIDIA sein Angebot noch weiter preislich nach oben ausdehnen. Vor allem fand ich früher die option gut, zwischen zwei VRAM- Ausstattungen wählen zu können. Zumal die Preisunterschiede oftmals tatsächlich in der Nähe des Materialpreises des VRAMs lagen. Da liegen wir derzeit bei 12GB GDDR6 mit 14Gbps bei 150,-$.
Die 200,-€, die das dann im Endeffekt ausmacht, hätte ich für meine 2080 Ti (die ich vom Start weg für 1050,-€ bekommen habe), dann gerne noch draufgelegt...
Naja- Sind wieder nur meine 2 cents...
LG
Zero
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.678
cypeak schrieb:das ist schon immer so gewesen: konsolen kommen heraus und legen vor - zwei jahre später ist die durchnittsgraka leistungsfähiger als konsolen der aktuellen generation.
Zweites Gegenbeispiel PS4. GPU auf HD7850 level, nur mit 4GB VRAM und es gab zu Release bereits die 290X mit über 100% mehr Leistung.Apocalypse schrieb:Gegenbeispiel PS3. GPU auf 7800 level, praktisch zeitgleicher Release der 8800 mit ~100% mehr an Leistung.
Wird bei der PS5 auch nicht anders laufen, denn sie wird in etwa so stark sein wie eine RTX2080, die bei Release der Konsolen aber schon durch eine RTX3060 ersetzt worden sein wird
iceshield
Lt. Commander
- Registriert
- Nov. 2003
- Beiträge
- 1.372
Echt witzig. In dieser perversen Preispolitik, ist die Beste Preis/Leistung die letzte oder vorletzte Generation zu empfehlen
1080ti für knapp 400,- wieso nicht...
980ti für knapp 250,- wieso nicht
Damit kann man noch ein bisschen rumfahren
Der Gebrauchtmarkt ist hier deutlich attraktiver, als der Neumarkt.
PS: das ist nur eine "gefühlte Wahrnehmung"
1080ti für knapp 400,- wieso nicht...
980ti für knapp 250,- wieso nicht
Damit kann man noch ein bisschen rumfahren
Der Gebrauchtmarkt ist hier deutlich attraktiver, als der Neumarkt.
PS: das ist nur eine "gefühlte Wahrnehmung"
Ähnliche Themen
- Antworten
- 512
- Aufrufe
- 35.207
- Antworten
- 537
- Aufrufe
- 89.544
- Antworten
- 417
- Aufrufe
- 90.011
- Antworten
- 177
- Aufrufe
- 43.653
- Gesperrt
- Antworten
- 105
- Aufrufe
- 22.302