News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

habla2k schrieb:
Du kannst aber nicht ne Karte nehmen, die über ein Jahr nach Release rauskam. Du musst schon die Releasekarten vergleichen.

https://geizhals.de/nvidia-geforce-rtx-2070-founders-edition-900-1g160-2550-000-a1870926.html

und

https://geizhals.de/gigabyte-geforce-gtx-1080-founders-edition-gv-n1080d5x-8gd-b-a1441847.html

Dann stimmt das sehr wohl.

PS: Eine 3080 TI gibt es nicht -> 3090.

Auf die Founders bezogen stimmt das, nicht aber auf Customs bezogen. Außerdem habe ich nur die Preise der Karten zum Release verglichen und da kosteten Custom 1080er wesentlich mehr als Custom 2070er.
Die Ti wurde von mir auch nur eingeschoben, weil rein leistungsmäßig ist noch Platz zwischen 3080 und 3090. Analog dazu Super-Karten für einen späteren Refresh.
 
Zotac2012 schrieb:
Das ist eigentlich schon sicher
Eigentlich ist das Stichwort. Sicher ist erstmal noch garnichts.

, was nur noch nicht wirklich klar ist, ob diese RTX 3090 die RTX 3080Ti ersetzt, oder sich zwischen der RTX 3080Ti und der Titan Ampere platziert.
...oder ob es wirklich eine 3090 geben wird...

Im jeden Fall wird diese deutlich über 1000,00 Euro kosten.
Es gibt doch noch garkeine Verlautbarungen zu den Preisen, außer dass NVIDIA vor Uhrzeiten mal gesagt hat, dass es im Bereich des Möglichen wäre, dass die Folgegeneration von Turing wieder günstiger sein könnte, weil die R&D Kosten für die Zusatzfunktionen nicht mehr so deutlich ins Gewicht fallen.

Der Turing Nachfolger wird so weit bekannt ja keine Featureset- Revolution bieten wie es Turing tat und ist somit mehr Evolution denn Revolution.

Somit bestünde auch eine gewisse Wahrscheinlichkeit, dass sich das Preis-/Performanceverhältnis verbessern wird, wobei auch dort zu unterscheiden ist, auf welche Rendertechnik man sein Augenmerk bezüglich der Bewertungsgrundlage lenkt (Raster/Raytracing).

Zu Release der Turing Serie hat eine RTX 2080Ti auch ab 1400,00 Euro gekostet
Die Customs waren in der frühen Anfangszeit und dann ein halbes Jahr später bereits auch immer mal wieder für 1150,-€ zu haben. Die günstigten Preise, von denen ich Notiz genommen habe, lagen bei 950,-€ für eine 2080 TI.

heute liegen die Preise je nach Modell zwischen 1000,00 bis 1600,00 Euro. Warum sollte also dann eine RTX 3090 unter 1000,00 über die Ladentheke gehen?
Weil hier niemand eine Preisgestaltung und eine darauffolgende Preisentwicklung absehen kann.
Sind ja noch nicht mal annähernd die Leistungsdaten von irgendeiner der Karten bekannt. Auch ist nicht bekannt, wie oder ob es eine Konkurrenz- Situation geben wird, die sich auf die Preise auswirken könnte.

Das ist zu 100% nur reines Hühnerknochen- Werfen, was hier und auf diversen anderen Seiten veranstaltet wird.

Sollte die RTX 3080Ti oder auch die RTX 3090 HBM2 Speicher bekommen, dürfte der Preis nochmals deutlich steigen, gegenüber der RTX 2080Ti.
Sollte, hätte, könnte...... Was passiert, wenn der Preis nicht steigt? Gibt es dann einen Riss im Raum-/Zeitkontinuum? ;)

Rätselraten, Diskutieren gut und schön. Sich aber vorab kirre machen, Hersteller verfluchen und Horroszenarien an die Wand malen ist nicht wirklich "produktiv".
Ist übrigens nicht explizit in Deine Richtung gemünzt, Zotac.
Es geht um so eine sich verselbständigende unberechtigte "Grundstimmung" bezüglich einger Entwicklungen.

Es werden auch so immer mal wieder Preis-/Leistungshammer an Produkten geboten, auch wenn man es nicht erwartet. Auch bei Grafikkarten (z.B. gtx 970 mit welcher auch abseits der VRAM- Gates viele viele Leute sehr glücklich waren)

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus, hahaqp und KlaraElfer
Zock schrieb:
Na Klar läuft bei euch alles flüssig, das sind eure Ansprüche wenn es hier um Autos ginge könnte man auch davon reden ja ich fahre mit meinem Fiat 500 über die Nordschleife natürlich kommt ihr damit irgendwann auch mal durchs Ziel ich finde das aber ziemlich langweilig.

Bei den meisten Leuten die sagen es läuft alles die haben bis dato noch keine bessere Grafik gesehen geschweige den wissen sie in welcher Auflösung und Settings sie spielen.

Meine 2080 Ti pfeift bei 4K auf dem letzten Loch ich brauche die Leistung weil ich sehr auf hohe Auflösungen und FPS scharf bin natürlich kostet das einiges aber PC ist mein einziges Hobby das kann mich kosten was es will. Es gibt Leute die Kaufen Alufelgen für 5000€ und mehr das ist genau das selbe.

Ich wünschte mir auch AMD würde mal was bringen aber Big Navi sehe ich nur als Konkurrent zur 2080 mehr nicht und deshalb werden die Preise wieder so hoch ausfallen.

Wieso willst du nicht gleich sagen das du Big Navi nur als Konkurrenz zur 2060 siehst.
Wie viele Prozent liegen gleich zwischen der RX5700XT und der 2070 super / 2080? (10%?)
Mathe ist wohl nicht so dein Ding.
 
  • Gefällt mir
Reaktionen: eXe777, Col.Maybourne und Zock
Bin auf den Preis der 3090 gespannt die werde ich holen
 
Die werden bestimmt spotbillig ...
 
ZeroZerp schrieb:
...oder ob es wirklich eine 3090 geben wird...
Hat auch keiner behauptet, Fakt ist nun mal, das es schon seit Wochen die Spekulation um ein RTX 3090 gibt, daher habe ich diese auch erwähnt, zudem wurde diese explizit vom User genannt! ;)

ZeroZerp schrieb:
Es gibt doch noch garkeine Verlautbarungen zu den Preisen, außer dass NVIDIA vor Uhrzeiten mal gesagt hat, dass es im Bereich des Möglichen wäre, dass die Folgegeneration von Turing wieder günstiger sein könnte, weil die R&D Kosten für die Zusatzfunktionen nicht mehr so deutlich ins Gewicht fallen.
Klar, vermutlich kommt auch dann direkt der Weihnachtsmann vorbei und bringt Dir eine RTX 3080Ti für unter 1000,00 Euro und legt diese Versandkostenfrei unter den Weihnachtsbaum. Allein schon die beiden letzten Generationen mit Maxwell und auch Turing sprechen gegen Deine Argumentation, die waren auch jeweils teurer als ihre Vorgänger.
ZeroZerp schrieb:
Der Turing Nachfolger wird so weit bekannt ja keine Featureset- Revolution bieten wie es Turing tat und ist somit mehr Evolution denn Revolution.
Bisher hat sich CEO Jen-Hsung Huang immer etwas einfallen lassen, wie er seine Preise mit irgendwelchen unverzichtbaren und innovativen Features rechtfertigt, warum sollte das diesmal anders sein? Und wenn Ihm die Argumente mal ausgehen, dann gibt es ja auch noch Holzatrappen! :daumen:

ZeroZerp schrieb:
Somit bestünde auch eine gewisse Wahrscheinlichkeit, dass sich das Preis-/Performanceverhältnis verbessern wird, wobei auch dort zu unterscheiden ist, auf welche Rendertechnik man sein Augenmerk bezüglich der Bewertungsgrundlage lenkt (Raster/Raytracing).
Der war gut! Ja, Nvidia war schon immer für seine großzügige und soziale Ader bekannt. Was hat die Welt gejubelt bei der GTX 970 und deren Preisleistungsverhältnis, zumindest ein halbes Jahr lang, bis man nachweisen konnte, wie Nvidia nicht nur die Kunden sondern auch die gesamte Online Journallie und Fachpresse in diesem Bereich hinters Licht geführt wurde, mit Ihrem VRam-Desaster!
ZeroZerp schrieb:
Die Customs waren in der frühen Anfangszeit und dann ein halbes Jahr später bereits auch immer mal wieder für 1150,-€ zu haben. Die günstigten Preise, von denen ich Notiz genommen habe, lagen bei 950,-€ für eine 2080 TI.
Ach gottchen, weil hier und da mal eins der schlichteren Modelle, die sonst eh keiner wirklich haben will, etwas günstiger angeboten wurden, da hat sich Nvidia bestimmt ruiniert!
ZeroZerp schrieb:
Weil hier niemand eine Preisgestaltung und eine darauffolgende Preisentwicklung absehen kann.
Sind ja noch nicht mal annähernd die Leistungsdaten von irgendeiner der Karten bekannt. Auch ist nicht bekannt, wie oder ob es eine Konkurrenz- Situation geben wird, die sich auf die Preise auswirken könnte.
Naja, man braucht halt nur eins und eins zusammenzählen, das sollte eigentlich jeder können. Was AMD betrifft, so hat das Nvidia die letzten Jahre noch nie gestört, deswegen ihre Preise massiv zu senken. Zumal auch die etwas besseren Grafikkarten von AMD jetzt auch nicht für 3,60 Euro über die Ladentheke gingen. Nur gab es leider in den letzten 4.Jahren nicht wirklich etwas Adäquates von AMD im Enthusiasten Bereich, von daher muss man erst mal warten was AMD mit Big Navi wirklich zu bieten hat und vor allem auch zu welchem Preis!
ZeroZerp schrieb:
Das ist zu 100% nur reines Hühnerknochen- Werfen, was hier und auf diversen anderen Seiten veranstaltet wird.
War doch immer so und am Ende musste man bei den Preisen der neuen Generation mal ordentlich Schlucken, vor allem bei Turing, aber es gibt doch genügend Kunden die solche Preise bezahlen und auch rechtfertigen, von daher wird es auch diesmal nicht anders sein.
ZeroZerp schrieb:
Sollte, hätte, könnte...... Was passiert, wenn der Preis nicht steigt? Gibt es dann einen Riss im Raum-/Zeitkontinuum? ;)
LG
Zero
Da könnte ich genauso sagen, was ist wenn die Welt sich morgen in die andere Richtung dreht, läuft die Zeit dann rückwärts? Jeder der sich ein bisschen mit der Thematik beschäftigt und im Enthusiasten Bereich unterwegs ist, der weiß schon ungefähr was er an Geld haben sollte, um sich ein entsprechendes Ampere leisten zu können.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Klingt pausibel. Dann ist der Leistungsprung genau wie von Maxwell auf Pascal und von Pascal auf Turing.

. 980 ti = 1080
1080 ti = 2080
2080 ti = 3080

D.h. der Leistungszuwachs der 3090 beträgt ca. 30%.
 
Nvidia wird das dieses mal ganz anders verkaufen ich bin mir ziemlich sicher das sie bei der rohen Shader Leistung maximal 20 % drauflegen dafür wird RTX gepusht bis zum geht nicht mehr, ich gehe von der 3 fachen Leistung aus nicht umsonst wird es diese mal wieder ein Riesen Chip, die Tensor Cores verbrauchen jede Menge Chipfläche.

Man muss immer daran denken das RTX Audio nicht die letzte Anwendung war die auf die Grafikkarte gelegt wird.
Leider sind heutige Soundkartenhersteller nicht mehr in der Lage Innovationen auf den Markt zu bringen, wird so oder so nicht mehr lange dauern da verschwinden diese komplett vom Markt.

Die jetzige vielleicht kommende 3090 ist für mich das gleiche wie damals eine 8800GTX, es findet ein Wechsel statt damals war es nur so das es einfacher war das zu etabliere heute muss man das den Leuten erstmal verkaufen noch dazu sehen die meisten keinen Unterschied wenn sie RTX Raytracing einschalten, damals war das einfacher „Mehr FPS gleich schneller :)„ aber auch damals wussten die wenigsten das man mit der Mehrleistung solch eines Riesen Chips wunderbar Antialaising nutzen konnte und viele Games dadurch gleich viel besser aussahen.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Die Entwickler machen es aber nicht, weil die meisten Karten nicht genug VRAM hätten,
ja, und das betrifft schon die vor-vor-generation; denn die entwickler schielen nicht auf die wenigen die highend-karten haben, sondern auf den mainstream - und da haben viele karten gerademal 4-6gb in den vorgenerationen..

die bus-breiten haben nunmal direkten einfluss darauf was an speicherbestückung möglich ist.
an 320bit passen eben 10 chips a 32bit. wenn jeder chip 2 gbyte fasst, hat man seine 20gb vram. allerdings auch eine teuerere karte, den ddr6x vram ist nicht wirklich billig.
man will ja nicht nur die gpu flotter machen, sonder ihr auch flotten speicher zur seite stellen, sprich hohe bandbreite - nicht nur viel davon.
und das ist nunmal ein kostentreiber.
 
Nureinnickname! schrieb:
Wo kommt eig das Gerücht her das Bill Gates sowas behauptet hätte?
Ok ok, es ist nur eine Urban Legend. Aber es ging darum, dass es immer Leute gibt die behaupten ein gewisser stand der Technik ist ausreichend und muss nicht verbessert werden.
 
cypeak schrieb:
ja, und das betrifft schon die vor-vor-generation; denn die entwickler schielen nicht auf die wenigen die highend-karten haben, sondern auf den mainstream - und da haben viele karten gerademal 4-6gb in den vorgenerationen..
Naja was AMD angeht sind da eigentlich überwiegend 8GB vertreten, wenn man von der 5600XT mal absieht.

Und wenn die nächste Gen beim Speicher mehr draufpackt haben wir dann später auch im Mainstream 8-10GB als Standard.
 
Bin schon sehr auf Vergleichstests gespannt. Entscheidend wird die Leistung und der Stromverbrauch sein.
 
FreedomOfSpeech schrieb:
Klingt pausibel. Dann ist der Leistungsprung genau wie von Maxwell auf Pascal und von Pascal auf Turing.

. 980 ti = 1080
1080 ti = 2080
2080 ti = 3080

D.h. der Leistungszuwachs der 3090 beträgt ca. 30%.
Der Vergleich hinkt aber ordentlich, da die 980 Ti maximal auf dem Niveau einer 1070 war. Ich tippe eher mal darauf, dass die 3070 etwa die Leistung einer 2080 Ti haben wird.
 
@Taxxor ja, wenn die nächste generation etwas draufpackt.

aber die statistiken sprechen auch eine andere sprache - gerademal 1/4 der user hat 8gb oder mehr im system.
wäre ich entwickler, würde ich einen teil der restlichen 3/4 user durchaus als potentiellen kunden betrachten wollen.

wie immer tendieren viele hier im cb forum zu sehr zur enthusiasten-denkweise. die welt da draußen trottet dem durchschittsuser hier im forum gemächlich hinterher.
z.b. haben laut der steam hw survey 1/3 der user immernoch 3gb vram oder weniger!

wenn ich die daten richtig mitbekommen habe, werden in der ps5 wohl 16gb ddr6 für video speicher UND systemspeicher ausreichen müssen...da sind 10gb ddr6x als exklusiver vram ganz okay, würde ich sagen...
 
cypeak schrieb:
wenn ich die daten richtig mitbekommen habe, werden in der ps5 wohl 16gb ddr6 für video speicher UND systemspeicher ausreichen müssen...da sind 10gb ddr6x als exklusiver vram ganz okay, würde ich sagen...
Ja mit den 10GB ist man dan exakt auf dem Stand der Series X. Und somit können für PC Ports auch durchaus 10GB VRAM für die Ultra Texturen benötigt werden.
 
Ja letztens war auch wieder gut, hast du mal einen Tipp für mich !? Warzone ruckelt bei mir was kann ich machen. Als mein gegenüber dann so meinte sein Rechner ist noch nicht so alt und die zwei Wörter vielen 4 Kerne und 970 bin ich bald abgebrochen. Leute haben Vorstellungen.
 
  • Gefällt mir
Reaktionen: Apocalypse
Irgendwann muss man halt aufrüsten. Oder man wird komplett abgehangen.

Man kann sich aber auch mit games zufrieden geben die diese Leistung nicht benötigen. Dann aber nicht meckern wenn aktuelle Spiele für aktuelle Hardware entwickelt werden
 
Nvidias Preisgestaltung steht und fällt mit der Preisgestaltung von AMD...

Meine Hoffnung ist, dass AMD einen "Ryzen" in den Grafikkarten-Markt wirft, meine Befürchtung ist aber, dass sie sich h preislich an Nvidia orientieren werden... Aus wirtschaftlicher Sicht: Wieso auch nicht?
 
  • Gefällt mir
Reaktionen: Zock
ZeroZerp schrieb:
Leider ist dieser Vergleich von NVIDIA völlig unsinnig.

Da könntest Du auch nen 144Hz, 244Hz und 300Hz+ Vergleich machen und einfach nochmal die zeitliche Auflösung der Kamera verdoppeln.

Schon sieht das 144Hz Bild plötzlich rucklig aus.
Das was man hier testet ist nicht die Wahrnehmung oder die Verbesserung für das Auge, sondern rein ein Test, wie hoch eine Kamera zeitlich auflösen kann.

Marketing eben...

LG
Zero
Es ging mir darum aufzuzeigen das zwischen 60 Hz und 144 Hz für das menschliche Auge sehr wohl ein großer Unterschied entsteht. Ob der Sprung von 144 Hz zu 240 Hz nochmal einen Unterschied macht kann ich persönlich nicht Beurteilen da ich schlicht noch nicht vor so einem Bildschirm gesessen habe.
 
  • Gefällt mir
Reaktionen: .Sentinel. und FreedomOfSpeech
Zurück
Oben