News GPU-Gerüchte: Die GeForce RTX 4090 kommt vor RTX 4080 und RTX 4070

Onkel Föhn schrieb:
Liegt aber einzig allein am FPS/€ Verhältnis und ihrer Open Source Philosophie !
Das FPS/Euro Verhältnis ist bei AMD aber nicht besser, wenn man eine 3080 und eine 6800XT vergleicht. Selbst eine 3080Ti kann mit etwas RT Fokus noch mit einer 6900XT hinsichtlich FPS/Euro verglichen werden.

Onkel Föhn schrieb:
Nur zu welchem Preis (€/Watt). Und das wegen 7 % mehr Leistung ?!?
Auch die Effizienz ist bei AMD nicht besser.

Onkel Föhn schrieb:
RT war letzte Gen schon nur zum probieren und wird evtl. mit der Übernächsten (RTX 5000) im "Mainstream" ankommen.
Und die die heute eine leistungsstarke Karte haben können dann eben auch bei der übernächsten Kartengeneration noch RT aktivieren, die schwächeren fallen raus.
Was bringt es denn Hersteller einseitig hervorzuheben und reale Nachteile zu negieren?
 
@Katzerino88
Doch die Effizienz ist bei AMD besser:
Hat @FormatC auch mal aufgezeigt..
Nur ist die RT Leistung bei AMD nicht besser, dass die Effizienz mit dem Refresh zu Grade getragen wird, ist eigentlich viel viel Ärgerlicher.

Die absolut gemessene Leistungsaufnahme der Radeon RX 6800 XT liegt 32 Watt unter der einer vergleichbaren GeForce RTX 3080 FE, wobei diese noch etwas schneller ist als die Radeon mit SAM. Trotzdem ist der Unterschied deutlich sichtbar. Die GeForce RTX 3070 FE liegt deutlich näher am Sweetspot, auch wenn sie bei der Performance etwas Federn lassen muss.
https://www.igorslab.de/radeon-rx-6...ichstand-aber-mit-unterschieden-im-detail/13/
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Melu76 schrieb:
Worauf mir jemand Screenshots von einzelnen Spielen zeigte, die wohl belegen sollen das AMD die Nase vorne hat, und alleine das schon komplett den Sinn dieses Stranges verfehlt hat.
Das hast Du jetzt aber hinein interpretiert !
Die Screenshot´s sollten lediglich darlegen, dass NV eben NICHT immer und überall die Leistungsdecke (Dein O-Ton) darstellt. In RR (Rasterizations Games / ca. 98,3 % aller Games) spielt NV nur die 2. Geige.
Nur in 4K und RT (absolute Nische) können sie sich absetzten. Wer´s braucht ...

MfG Föhn.
Ergänzung ()

ETI1120 schrieb:
Nvidia fährt insgesamt eine Operation Marge von 47 %. Anders herum gerechnet sind es über alles knapp 200 %. Ich gehe davon aus dass andere Produkte eine größere Marge haben als die Gaming GPUs. Bei einer RTX 3090 ist die marge natürlich höher als bei einer RTX 3060.
Richtig, 300 - 400 % Marge sind es nicht.
Letztes Jahr (bei 9,7 Mrd. Gewinn) waren es 64% und just sind sie bei 67%.

MfG Föhn.
 

Anhänge

  • Bench 1440p RR.jpg
    Bench 1440p RR.jpg
    443,1 KB · Aufrufe: 210
  • NV.jpg
    NV.jpg
    295,3 KB · Aufrufe: 192
Zuletzt bearbeitet von einem Moderator:
Onkel Föhn schrieb:
Nur in 4K und RT (absolute Nische) können sie sich absetzten. Wer´s braucht ...
Ja, die Auflösung ist da auch ein interessanter Punkt. Man sieht bei allen RX 6000ern sowohl bei der Performance als auch bei der Energieeffizienz deutlich, dass sie bei geringerer Auflösung verhältnismäßig besser und effizienter arbeiten. Mit zunehmender Auflösung wiederum sinkt der Effizienzvorteil ggü Nvidia und die Performance geht auch stärker zurück als bei Nvidia. Liegt wahrscheinlich am Infinity Cache.

Für normales Gaming in FHD und WQHD mit keinem/wenig RT sind die AMD-Karten prima und Nvidia bei P/L, Energieffizienz und VRAM überlegen.
Für 4K, Raytracing und wenn man neben dem Spielen mit der Karte noch Rendern oder rechnen möchte (OptiX, CUDA), führt kein Weg an Nvidia vorbei.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Rockstar85 schrieb:
Doch die Effizienz ist bei AMD besser:
Solange man Spiele mit RT komplett außen vor lässt, ist sie etwas besser, insgesamt vergleichbar, stellenweise bei viel RT Einsatz weit besser bei Nvidia.

Eine auf 300 Watt eingebremste 3090Ti kann sogar bei reiner Rastergrafik sämtliche Radeons schlagen, wenn auch äußerst gering.
https://www.igorslab.de/kuehler-bre...auf-den-kopf-stellt-und-die-radeons-schlaegt/

Onkel Föhn schrieb:
Die Screenshot´s sollten lediglich darlegen, dass NV eben NICHT immer und überall die Leistungsdecke (Dein O-Ton) darstellt.
Gemeint war die Leistungsdecke im Nvidia Portfolio, nicht das was du hineininterpretiert hast.

Onkel Föhn schrieb:
In RR (Rasterizations Games / ca. 98,3 % aller Games) spielt NV nur die 2. Geige.
Nur in 4K und RT (absolute Nische) können sie sich absetzten. Wer´s braucht ...
Also genau der Bereich, für den High End GPUs produziert werden.
Neuerdings spielen AMD High End User allerdings in Full HD, da AMD im Prozessorlimit kleine Vorteile hat.
1% in den Percentilen.
https://www.computerbase.de/2022-05...benchmarks_mit_und_ohne_raytracing_in_full_hd
;)
 
Zuletzt bearbeitet:
Sorry Bro, aber deine Aussage war eine andere und naja 30W sind nicht wirklich Messunterschiede..
Bleib also doch bitte bei der Wahrheit.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Rockstar85 schrieb:
Sorry Bro, aber deine Aussage war eine andere..
Dass AMD in der Effizienz nicht besser ist, bedeutet nicht, dass Nvidia überlegen wäre.
Welche Aussage ist denn gemeint?

Rockstar85 schrieb:
Bleib also doch bitte bei der Wahrheit
Ja und die ist, dass beide Hersteller je nach workload ziemlich auf Augenhöhe liegen.
Man muss ja nicht zwanghaft einen IHV zum Sieger küren.
 
Bei AMD vs. Nvidia Diskussionen muss ich immerfort daran denken. Dabei mache ich mir noch nicht mal viel aus RT 🤣

aKjbB96_460s.jpg
 
  • Gefällt mir
Reaktionen: _Flattermann_, Benji21, Onkel Föhn und eine weitere Person
Onkel Föhn schrieb:
Das hast Du jetzt aber hinein interpretiert !
Die Screenshot´s sollten lediglich darlegen, dass NV eben NICHT immer und überall die Leistungsdecke (Dein O-Ton) darstellt.

Wenn die 4090 rauskommt, wird das zu diesem Zeitpunkt die Leistungsdecke in 100% aller Spiele sein.

Deswegen ist der Release eigentlich für jeden User interessant, ob er nun die Karte kauft oder nicht.

Sinnbefreit wäre es hingegen wenn Nvidia die neue Saison mit einer 4070 eröffnet, die whatever, z.b. 3090er Niveau hat.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Melu76 schrieb:
Wenn die 4090 rauskommt, wird das zu diesem Zeitpunkt die Leistungsdecke in 100% aller Spiele sein.
Sofern Nvidia denn nun wirklich schneller als AMD ist mit den next-Gen-Karten. Gehe ich zwar auch von aus, aber offenbar ist das ja alles noch unklar.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Nore Ply schrieb:
Sehr lobenswert (kein Sarkasmus).
Allerdings werden die meisten Käufer wohl mindestens "auch" die Performance pro Euro in ihre Entscheidung einfließen lassen. Das hat AMD in der Vergangenheit (meiner Meinung nach) mehr als einmal den Arsch gerettet.
ich gehe mal davon aus, dass nach den stromfressern ganz oben auch der preis im verhältnis zu FPS pro WATT sehr ähnlich sein wird
AMD hatte schon mit der 5000er reihe recht sparsame modelle
 
Onkel Föhn schrieb:
Richtig, 300 - 400 % Marge sind es nicht.
Letztes Jahr (bei 9,7 Mrd. Gewinn) waren es 64% und just sind sie bei 67%.

MfG Föhn.
Ich finde das Betrachten der Bruttomarge bringt nichts. Die muss bei Halbleiterunternehem bei mindestens 45 % liegen. Ansonsten wird es mit den erforderlichen hohen Entwickungsausgaben und erforderlichen hohen Beständen schnell eng.

In Q1 2022 hat AMD eine Bruttomarge von 53 % erzielt (Ohne Berücksichtigung der einmaligen Kosten für die Abwicklung der Übernahme von Xilinx). Damit liegt AMD gleichauf mit Intel. Etwas was man vor 2 Jahren für unmöglich gehalten hätte.

Was man nicht vergessen darf ist, dass diese Unternehmen Ausgaben für die Forschung und Entwicklung in Milliardenhöhe haben. Und diese Ausgaben sind Fixkosten. Solange alles gut läuft ist alles toll, aber wehe es läuft nicht. Wenn Halbleiterunternehmen ihre Bestände neu bewerten müssen weil sie die anvisierten Absatz erreichen und auch den anvisierten Preis nicht erzielen können, lösen sich Milliardenbeträge über Nacht in Luft auf. Du wirst Dich noch sicher erinnern wie das bei AMD nach 2009 gelaufen ist.

Das was die Zahlen von Nvidia brutal macht ist, dass Nvidia eine Operation Margin von 47 % erreicht. Wir werden sehen ob das Nvidia beibehalten kann. Es wollen viele beim Geschäft mit AI mitmischen.

Der original Poster hat von der anderen Seite gerechnet. 100 % sind die Kosten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Ich werde mir treu bleiben.
Keine schlechten Produkte zu schlechten Preisen kaufen.
Ein gutes Produkt zu einem schlechten Preis, oder ein schlechtes Produkt zu einem guten Preis geht noch.

Ich wünsche mir das alte nVidia zurück. Aber klar, wenn man einmal hoch profitable ist, will man nicht mehr zurück.
AMD hat es bei Intel geschafft Konkurrenz zu machen. Hoffe das klappt bei den GPUs jetzt auch endlich.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Rockstar85 schrieb:
RT ist halt für 90% der Spielerschaft in 2022 immer noch nicht Spannend..
Wahrscheinlich eher für 95 %. Bisher.

Das mag aber auch daran liegen, dass m.E. unterhalt der 3080/Ti und 3090 die RT Erfahrungen nicht so toll möglich waren.
Jetzt, da ich Watch Dogs, Metro Exodus, Control oder Cyberpunk mit Raytracing erleben konnte, sind alle 4 Games ohne Raytracing einfach...blasser. Spielen sich mit weniger Atmosphäre. Bieten weniger Immersion.

Aber ja, man braucht dazu die Hardware, daher hoffe ich, dass die next Gen GPUs RDNA3 und Lovelace für weitere RT Verbreitung bzw. Prävalenz bereits ab den 70er Modellen (7700 bzw 4070) sorgen, denn gutes Raytracing bereicht das Spielerlebnis. Das schreiben ja sogar die "Spieletester".
 
  • Gefällt mir
Reaktionen: Rockstar85 und Benji21
Wo sich AMD mit der schwachen RT-Implementierung halt komplett abhängen lassen hat, ist Rendering. Für den normalen User, der nur zockt, zwar irrelevant, aber Nvidia war da vorher schon die bessere Wahl weil bessere Software-Unterstützung, mit RT und OptiX ist AMD hier aber auch performancemäßig gnadenlos abgehängt worden.
Wenn AMD hier auch nur ansatzweise wieder konkurrenzfähig werden will, müssen sie sehr viel tun bei der RT-Performance.
Falls AMD hier was tut, wirkt sich das natürlich auch positiv auf die RT-Performance im Gaming aus.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Katzerino88
Ist bekannt, ob es bei den 40x0 wieder eine FE geben wird und ob diese optisch gleich aussehen werden wie die 30x0 Modelle?
 
Beitrag schrieb:
Wo sich AMD mit der schwachen RT-Implementierung halt komplett abhängen lassen hat, ist Rendering. Für den normalen
Eigentlich hat das mit RT nichts zutun. Das ist nur das Tüpfelchen auf dem i.

Wenn sich jemand für GPGPU-Anwendungen interssiert, dann geht es mit Nvidia problemlos. Sicher geht vieles auch mit AMD, aber es ist immer mit zusätzlichen Aufwand im Vergleich zu Nvidia verbunden.

Und für viele die ihre GPU auch für GPGPU einsetzen wollen, sehen zur Zeit keine Alternative zu Nvidia.
 
  • Gefällt mir
Reaktionen: Nore Ply
ETI1120 schrieb:
Eigentlich hat das mit RT nichts zutun. Das ist nur das Tüpfelchen auf dem i.
Es ist weit mehr als nur das i-Tüpchelchen. Schau dir bspw. mal an, wie die RTX-Karten in Blender mit CUDA performen vs. wie sie mit OptiX, wo die RT-Kerne genutzt werden, performen.
Das sind Unterschiede, als hättest du gerade ein fettes Grafikkartenupdate gemacht, ca. Faktor 2 schneller.

Man sieht auch in Minecraft RTX und Quake 2 RTX gut, wie viel mehr RT-Leistung Nvidia bietet, AMD kann hier gar nichts. Nun mag einer sagen, dass die Games doch eh nur auf Nvidia optimiert sind, tatsächlich sieht es aber so aus, dass selbst beim Rendern mit RT mit dem "Radeon ProRender", der ganz sicher nicht auf Nvidia optimiert ist und deren RT-Cores nicht nutzt, AMD trotzdem langsamer ist als Nvidia.

Vorher hing's immer eher am Softwaresupport. Alles konnte CUDA, AMD wurde oft einfach gar nicht unterstützt. Beim Rendern ist AMD jetzt halt auch technisch abgehängt.
 
Katzerino88 schrieb:
Gemeint war die Leistungsdecke im Nvidia Portfolio, nicht das was du hineininterpretiert hast.
"er" meinte die Leistungsdecke als Absolute !
Meiner einer hat ihm das nVidia Portfolio als das Eventuelle dar geboten.
Und NICHT das was Du da jetzt hinein interpretierst. Nix verdrehen !!
Bitte lies nochmal die Post´s ... :freaky:

MfG Föhn.
Ergänzung ()

Melu76 schrieb:
Wenn die 4090 rauskommt, wird das zu diesem Zeitpunkt die Leistungsdecke in 100% aller Spiele sein.
Schon klar, da will ich auch gar nicht großartig widersprechen.
Nur ob´s im Grid Bench reicht werden wir sehen (bzgl. 100 %).
Da ist selbst eine 6800 (non XT) schneller als eine 3090.
Und ja, ich weiß, jeder Bench in dem eine Rote schneller ist, ist Cherry ... :D

MfG Föhn.
Ergänzung ()

ETI1120 schrieb:
In Q1 2022 hat AMD eine Bruttomarge von 53 % erzielt (Ohne Berücksichtigung der einmaligen Kosten für die Abwicklung der Übernahme von Xilinx). Damit liegt AMD gleichauf mit Intel. Etwas was man vor 2 Jahren für unmöglich gehalten hätte.
Da haste sowas von Recht, wer hätte das vor einiger Zeit für möglich gehalten ... :lol:

MfG Föhn.
 

Anhänge

  • Grid PCGH.jpg
    Grid PCGH.jpg
    258,6 KB · Aufrufe: 189
  • AMD INTEL.jpg
    AMD INTEL.jpg
    771,3 KB · Aufrufe: 187
  • NV Marge.jpg
    NV Marge.jpg
    590,2 KB · Aufrufe: 186
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben