News GPU-Gerüchte: Die GeForce RTX 4090 kommt vor RTX 4080 und RTX 4070

Rockstar85 schrieb:
Da drin sind auch die Mehrkosten für bessere TSMC Chips drin, Overall wäre die UVP bei allen Modellen wieder gestiegen. (ca 50€ und das wäre im Rahmen des Erwartbaren). Custom werden dann natürlich wieder teurer als die FE
In der Regel kaufen und bezahlen die Hersteller belichtete Wafer. Und dann kommt es eben nicht nur auf die Kosten des Wafers sondern auch auf die Fehlerrate an. Mit zu hoher Fehlerrate hat man trotz billiger wafer teure Chips.

Außerdem schlägt sich ein nicht ausgereifter Prozess nicht nur auf eine hohe Rate von fatal errors nieder, sondern auch auf parameter errors. D. h. die Chips haben schlechtere elektrische Eigenschaften.

Es heißt dass Samsung mit Nvidia und Qualcomm Verträge abgeschlossen hat, bei denen Nvidia und Samsung nur funktionierende Chips bezahlen mussten. Falls dies auf die R3000 GPUs zutrifft, dann wird sich der Wechsel auf TSMC in der Tat deutlich auf die Kosten auswirken. Aber da sowohl Nvidia als auch Qualcomm (mit den Highendprodukten) gewechselt sind, wird sich das ganze in Grenzen halten.
 
@ETI1120
Ich denke meine UVP kommt schon hin.
Wie du sagtest gibt es Fallstricke, aber am Ende wollen ja auch Nvidia und AMD GPU verkaufen.. Und solange die Strafzölle nicht ausarten, wären 600€ ~ für eine 4070 schon im Rahmen des Möglichen. Auch wenn das Natürlich nicht billig ist.
 
Melu76 schrieb:
Macht Sinn. Wenn man bedenkt das 4090 die neue Leistungsdecke definiert
Ja, im nVidia Portfolio halt :evillol: und bis zur Ti
Melu76 schrieb:
und die 4K Gemeinde auf eine Karte mit deutlich mehr Power wartet, um z.b. eine 3080er (etc) mit deutlichem Leitungsgewinn upzugraden.
braucht lediglich zum RDNA3 Spitzenmodell zu greifen (bei 50% weniger €uronen und weniger Watt).
Das Leben könnte so einfach sein ... ;)

MfG Föhn.
 

Anhänge

  • CB Game 1.jpg
    CB Game 1.jpg
    465,5 KB · Aufrufe: 209
  • CB Game 2.jpg
    CB Game 2.jpg
    463,8 KB · Aufrufe: 201
  • CB Game 3.jpg
    CB Game 3.jpg
    467 KB · Aufrufe: 198
  • CB Game 4.jpg
    CB Game 4.jpg
    465,4 KB · Aufrufe: 204
  • CB Game 5.jpg
    CB Game 5.jpg
    463,5 KB · Aufrufe: 199
  • PCGH Bench.jpg
    PCGH Bench.jpg
    573,1 KB · Aufrufe: 216
  • Gefällt mir
Reaktionen: Rockstar85
Onkel Föhn schrieb:
Ja, im nVidia Portfolio halt :evillol: und bis zur Ti

ja klar, im nvidia portfolio ;)

ja, bei bedarf wird halt die TI nachgereicht. :)
man wird sehen was die konkurrenz nachschieben kann.

aber ich mein ja nur, das der "Bedarf" eigentlich erstmal nur darin liegt das die 4K nutzer was mit mehr PS im rechner stecken haben, alle anderen haben doch mehr als genug aktuell.

vielleicht kommen bei nvidia die low-4000er karten auch mit 12 GB standard raus, das wäre dann noch ein grund sich sowas zu kaufen (wenn man nicht gerade eine neue hat, die ausreichend ist und sowieso upgraden wollte)

ach so, und es ist lustig, das du dir einzelne spiele raussuchst, aber im average 4K rasterizer (von RT reden wir erst gar nicht) liegt die 3090 ti eindeutig vorne - im sorry ;)

Des Lesens bin ich noch mächtig.



https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

Screenshot (19).png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schneeland, Katzerino88, Onkel Föhn und eine weitere Person
Nore Ply schrieb:
Es spricht ja auch vieles dafür. Was aber noch aussteht ist der Nachweis das es damit keine Mikroruckler gibt wie selbst noch bei den Dual-GPU-Karten.
Das würde mich doch schwer wundern. Die Dual-GPU-Karten bestanden ja aus zwei wirklich zwei komplett getrennten GPUs und mussten mit SLI/Crossfire genutzt werden.
Bei dem MCM-Ansatz hier werden die Chips ja richtig in Hardware verbunden, sehen für das OS dann wie eine einzige GPU aus und berechnen dann sicher auch alle Frames zusammen, nicht via AFR, was bei SLI/Crossfire für die Mikroruckler gesorgt hatte.
 
  • Gefällt mir
Reaktionen: Colindo
Melu76 schrieb:
ach so, und es ist lustig, das du dir einzelne spiele raussuchst, aber im average 4K rasterizer (von RT reden wir erst gar nicht) liegt die 3090 ti eindeutig vorne - im sorry ;)

Des Lesens bin ich noch mächtig.



https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

Anhang anzeigen 1225285
RT ist halt für 90% der Spielerschaft in 2022 immer noch nicht Spannend..
FSR und DLSS finde ich da besser, leider fehlt auch hier bei 9 von 10 Spielen der Softwaresupport. Deswegen von Cherry Picking zu reden ist schon arg witzig, da er ja mehrere Spiele aufzählte..
Vllt mal bissl am Wording arbeiten.
https://www.gamestar.de/artikel/alle-spiele-mit-raytracing-und-dlss,3333695.html
Sooo viel Spannendes ist also nicht dabei. Und als Intel RT Pushen wollte, hat keiner von den beiden mitgemacht. Das nun als GameChanger zu verkaufen (Hallo Marketing) ist zutiefst zu verurteilen.

Ach und ich sehe RDNA3 mit Infinity Ring auch als NVidia Überlegen an.. Die Frage ist eben, wie wird sich das im Preis Äußern.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Melu76 schrieb:
...aber im average 4K rasterizer (von RT reden wir erst gar nicht) liegt die 3090 ti eindeutig vorne...
Ja, um satte 7% liegt sie vorne, bei 99% mehr EUR.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, BlueBringer und Rockstar85
Rockstar85 schrieb:
Deswegen von Cherry Picking zu reden ist schon arg witzig, da er ja mehrere Spiele aufzählte..

es ist wohl eindeutig cherry picking, wenn man, anstatt vom Durchschnitt auszugehen, sich einzelne spiele raussucht, um die nicht vorhandene Dominanz von AMD, was die Leistungsdecke angeht, mit einer WALL OF SCREENSHOTS von EINZELNEN Spielen zu belegen. :daumen:

Da muss ich mich fragen, für wie blöd man mich hält.

Mir persönlich ist es völlig wurst, aber so kann man nit argumentieren.
 
  • Gefällt mir
Reaktionen: Katzerino88
Über die Specs und die tatsächliche Leistung mach ich mir gedanken, wenn das Ding released wurde.

Bis dahin erfreue ich mich erstmal an sowas :lol::daumen:
 
  • Gefällt mir
Reaktionen: Onkel Föhn
HerrRossi schrieb:
Ja, um satte 7% liegt sie vorne, bei 99% mehr EUR.

Das rechnet sich 100% nicht.
Das Leistungsgap zwischen der 3080 12GB und der 3090 TI ist einfach zu klein.
Für 100% mehr Kosten. Das stimmt.

Und hier kommt die neue Generation ins Spiel.
Bin aber gespannt, wie Nvidia das lösen will ohne das die 3090er obsolet werden.

Davon abgeshen muss man sich auch fragen muss wofür man die XTRA Rechenpower in 4K braucht.
(auch speziell auf die Zukunft ausgerichtet)

Ich VERMUTE - für das immer wichtiger werdene RT.

Wenn du einfach nur 4K zocken willst, tut es vermutlich auch ne kleinere Karte.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Melu76 schrieb:
es ist wohl eindeutig cherry picking, wenn man, anstatt vom Durchschnitt auszugehen, sich einzelne spiele raussucht, um die nicht vorhandene Dominanz von AMD, was die Leistungsdecke angeht, mit einer WALL OF SCREENSHOTS von EINZELNEN Spielen zu belegen. :daumen:
nein, es ist logisch, dass Unterschiedliche Spiele Unterschiedliche Ergebnisse bringen und der Spieleparkours maßgeblich das Ergebnis entscheidet...
Sorry aber er hat Recht und Rossi hat was dazu geschrieben.. Würden wir das Thema nun mit Chaosgate, Stellaris und GTA5 durchspielen, wäre das Ergebnis wieder ein anderes.. Deswegen gibts ja Launch Analysen ;)
Vllt solltest du dir das nochmal besser anschauen, nicht dass du glaubst, dass deine Nvidia overall immer schneller ist. Und wie ich schon sagte, wenn man RT wegnimmt, da RT eben in einer Handvoll Games nur vorhanden ist, ist das Bild noch eindeutiger... Spannend, dass das alle akzeptieren, außer eben Leute wie du.

Hier sieht man auch Eindrucksvoll was der Parkours am Ergebnis ausmacht:
https://www.3dcenter.org/artikel/la...ch-analyse-nvidia-geforce-rtx-3090-ti-seite-2
Nebenbei sieht man auch gut, wie viel besser die 6900XT geworden ist. Und nein RT ist immer noch unwichtig, da eben 9 von 10 Spielen KEIN RT haben.. Das ist der gleiche Mumpitz wie damals mit der Tesselation Leistung auf Max..
Und das Thema AMD und zickig ist auch durch. Spannenderweise machen die AMD Treiber weniger Probleme als die Nvidia (zumindest in meinem Dunstkreis)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Rockstar85 schrieb:
Spannend, dass das alle akzeptieren, außer eben Leute wie du.

OK, alle AMD Fanboys akzeptieren das AMD no1 ist. ok :)

und wer 1000+ Euronen ausgibt, und sich dafür Benchmarks von einzelnen Spielen (weil ja NUR diese Spiele damit gespielt werden sollen, und nicht etwa Games, die es vielleicht NOCH GAR NICHT GIBT :freaky: ) anschaut und diese als Grundlage für seine Entscheidung nimmt -

sorry, ist halt nicht mein Verständnis.

Ich denke RT wird immer wichtiger werden und dafür wird die Rechenpower zukünftig gebraucht.
 
  • Gefällt mir
Reaktionen: Katzerino88
Also erstmal Captn Caps wird hier nicht gerne gesehen, Also bitte achte darauf und pass es ggf an.
Rossi hat es klar gesagt und selbst wenn für DICH RT immer wichtiger ist, so bist du nicht die Mehrheit. Das sieht man auch eindrucksvoll wenn man sich die Charts auf Steam anschaut.. RT ist in der Masse genauso unwichtig wie 4k..Es kommt langsam, aber reden wir nochmal in 4-5 Jahren drüber.
Erstaunlich finde ich, dass du hier der einzige bist, der versucht andere in die Fanboi Ecke zu drängen und selbst nicht wirklich sachlich Argumentierst.. Nichts desto Trotz sind auf Grund der P/L Verhältnisse die kommende GPU Gen Spannend. Wir reden ja mittlerweile von ~40% eines Monatsbruttos bei einer 3090Ti bis zu 13% einer 3070.. Das kann so nicht weitergehen und das wissen beide Hersteller.

Sollte Intels ARC nicht RT in die Masse bringen, dann wird es noch Jahre dauern, Trotz Vulkan API. Das ist der traurige Fakt. Und bis dahin können dann alle GPU Hersteller RT. Es also als Nvidia Exklusives Feature zu verkaufen ist hart am Ziel vorbeigeschossen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Das ist genau der Knackpunkt..
Und wenn man als Sweetspot die 4060 und 4050 dann nimmt, dann werden am Ende auch die Preise passen.. Ich Glaube auch noch nicht, dass eine 4060 das Thermalbudget einer 3070 reißen wird. Damit würde man sich mal eben 70% des Consumermarktes Ausschließen, ich für meinen Teil renne auch mit 550W durch die Gegend und werde nicht, weil es AMD oder NV wollen nun Plötzlich auf 800W aufrüsten.

@Melu76
Es war ein gutgemeinter Hinweis.. Naja Wie man sieht, möchtest du nicht..
Ich versteh echt nicht, dass du So Toxisch im Forum dich bewegst.. Kennst du nicht sowas wie ne Forenknigge?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Beitrag schrieb:
Und das berücksichtigt entsprechend auch jede Spieleschmiede, die ihren Kram an den Mann bringen will.

aber da sind wir auch wieder weit vom Thema weg, weil es ja hier um den Release der 4090 geht, und dazu hatte ich geschrieben das es Sinn macht, weil es erstmal darum geht das die 4K nutzer mehr Rechenpower bekommen, weil das Fußvolk davon mehr als genug hat.

Worauf mir jemand Screenshots von einzelnen Spielen zeigte, die wohl belegen sollen das AMD die Nase vorne hat, und alleine das schon komplett den Sinn dieses Stranges verfehlt hat.

Weil diese Screenshots schonmal gar nicht zeigen das diese zusätzliche Rechenpower von in Durchschnitt unterlegenen Karten kommen kann, auch wenn diese wirtschaftlich vielleicht Sinn machen.

und das habe ich recht früh bemerkt :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Beitrag schrieb:
Was meinst du damit?
Genau das, was da steht.

Angenommen, jemand will seine 3080 upgraden, und plant nicht auschließlich "The Riftbreaker" zu zocken. :daumen:

Und strebt zudem eine Leitunsgsteigerung von 50% an.
Das ist die Zielgruppe für die 4090.

Leute, die jetzt 2+ jahre ihre 3080er hatten
und durch den Kauf einer 3090 ti average 20% mehrleistung erhalten, was ein upgrade dieser Preisklasse nur schwer rechtfertigt.

Jemand, der jetzt sagt: "Ich will die nächsten 5 Jahre "The Riftbreaker" zocken, der könnte natürlich auch auf AMD umsteigen. Das wäre keine Steigerung um 50%, aber evtl. schon bemerkbar.
Gut, RT (und DLSS) wäre damit jetzt nicht mehr drin - aber das spielt ja in der "Masse auf Steam" sowieso keine Rolle. :daumen:
Von daher TOTAAAL unwichtig.


Wen man außer acht lässt, das für den EINZELNEN "in der Masse" sowieso nichts eine Rolle spielt.

Nvidia will ein neues Produkt auf den Markt werfen und die Frage ist, wer das kaufen soll.
Und tatsächlich hat der 3080er User der upgraden will, aktuell nicht sooo die attraktiven Optionen.


Hingegen, wenn ich ne 3060 ti habe und upgraden will, kann ich mir locker ne 3080 kaufen und habe satte 45% Leistungsgewinn. Da brauche ich z.b. keine 4090.
 
Zuletzt bearbeitet:
Fakt ist einfach das die Preise völlig überzogen sind. Und viele Lemminge sind auch noch dazu bereit so viel auszugeben und versuchen auch noch diese Preise zu rechtfertigen. Sie sind aber nicht zu rechtfertigen.
Es ist kein Wunder das Nvidia das 7. größte Börsennotierte Unternehmen der Welt ist.
Weil scheinbar genug Leute bereit sind diese Wucherpreise zu bezahlen. Nvidia macht Pro Grafikkarte garantiert 300-400% Marge daran. Alles andere würde nicht zu solchen Gewinnen führen. Und für weniger würden sie wahrscheinlich auch kein Fuß aus dem Bett tun. Aber zahlt ihr mal fleißig.
Geschmacklos sind die Preise ja schon lange.

Die Karten waren vor 5 Jahren schon mehr als fürstlich bezahlt und jetzt sind sie es noch mehr.
Ich mache das nicht mit und stimme mit meinem Portemonnaie ab.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Benni82
Bei der, mittlerweile, lächerlichen Versorgung mit AA(A)-Titeln, sei es aufgrund mangelnder Softwarequalität, schlechtes Scripting, mangelnder Innovationen oder whatsoever, kann ich nicht nachvollziehen einen Rechner samt überteuerter NVIDIA-Technik besitzen zu müssen. Wenn ich mir die Signaturen hier so anschaue, stehe ich mit dieser Meinung augenscheinlich allein auf weiter Flur. Aber vielleicht bin ich altersblind und letztlich geht es mich nichts an wofür die Leute ihr Geld ausgeben. Nur manchmal befremdlich warum man Zeiten wie diese nicht mal aussitzen kann, statt NVIDIA die Tausender in den Rachen zu schmeißen.
 
  • Gefällt mir
Reaktionen: Chismon, Hauwexis, Onkel Föhn und eine weitere Person
Hauwexis schrieb:
Fakt ist einfach das die Preise völlig überzogen sind.
Ob die Preise völlig überzogen sind muss jeder für sich entscheiden.

Du bist bestimmt nicht in der Minderheit, in der Einschätzung, dass es zu teuer wird.
Aber es gibt auch viele, die wollen mehr Leistung, beinahe egal was es kostet.
Hauwexis schrieb:
Es ist kein Wunder das Nvidia das 7. größte Börsennotierte Unternehmen der Welt ist.
Weil scheinbar genug Leute bereit sind diese Wucherpreise zu bezahlen.
Nvidia hat sich in den letzten Jahren auch andere Geschäftsfelder aufgebaut. Ich gehe davon aus dass einen A100 erheblich mehr Marge bringt als eine Gaming-GPU
Hauwexis schrieb:
Nvidia macht Pro Grafikkarte garantiert 300-400% Marge daran.
Wir müssen jetzt bestimmt keine Sammlung für Nvidia starten.
Die Margen sind excellent aber keine 300 bis 400 %.

Nvidia fährt insgesamt eine Operation Marge von 47 %. Anders herum gerechnet sind es über alles knapp 200 %. Ich gehe davon aus dass andere Produkte eine größere Marge haben als die Gaming GPUs. Bei einer RTX 3090 ist die marge natürlich höher als bei einer RTX 3060.

Hauwexis schrieb:
Ich mache das nicht mit und stimme mit meinem Portemonnaie ab.
Tu das.

Wobei nichts zu kaufen auch abstimmen ist.
 
Zurück
Oben