News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

TLoU liegt den 7000ern net so dolle, dagegen anscheinend den Amperes.(3090>>4070Ti)
7900xt vs 4070Ti = 51,4/42,1 sind immerhin 22%, und derzeit ist ne 7900xt preiswerter als ne 4070Ti!

ne 7900xt kannste gut OCen (siehe Nitro von HADES)
dort wirste wohl net mit ner 4070Ti hinkommen
 

Anhänge

  • 7900xt-nitro_HADES.jpg
    7900xt-nitro_HADES.jpg
    303,8 KB · Aufrufe: 133
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
GerryB schrieb:
TLoU liegt den 7000ern net so dolle.
ne 7900xt kannste gut OCen (siehe Nitro von HADES)
Das mag sein, aber halte von GPU OC wenig, da es kaum Vorteile hat für mich eher negativ da mehr wärme und die Lautstärke zu nimmt.

Zurück zum Thema"

Würden wir alle endlich verstehen, das eine 4070 Ti nicht gegen eine 7900 XT konkurriert, hätten wir diese Debatten nicht.

Die Konkurrenz zu der 7900 XT ist die RTX 4080 und die 7900 XTX steht der 4090 gegenüber.

Der wahre Gegenspieler der 4070 Ti ist die 7800 XT, wenn die mal kommt.

Was ich euch sagen will, ist Nvidia haut einfach eine Mittelklasse karte für 900 Euro raus, die nur 8 % langsamer ist wie AMDs zweit schnellste karte.

Das müsst ihr euch mal auf der Zunge vergehen lassen Nvidia nimmt AMD nicht mehr ernst besser gesagt sieht sie nicht auf Augen höhe.

Solange dies sein sollte, wird sich auch nicht an den Preisen ändern.

Ich hoffe, AMD kommt mit so einem riesen Ding, wo keiner damit gerechnet hat und haut alles weg wie damals mit der 64 Bit Architektur das wäre was sage ich euch. ^^
 
  • Gefällt mir
Reaktionen: ben12345
HaRdWar§FreSseR schrieb:
Das mag sein, aber halte von GPU OC wenig, da es kaum Vorteile hat für mich eher negativ da mehr wärme und die Lautstärke zu nimmt.
bei den preiswerten Modellen<1k€ ist OCen schon ne seeeehr wichtige Eigenschaft
mooore Bang for Buck

HaRdWar§FreSseR schrieb:
die 7900 XTX steht der 4090 gegenüber
kann ich so net unterschreiben, weil die 4090 einfach sehr viel mehr Silizium hat, deswegen zu Recht teuerer
(AMD müßte schon seinen GCD-Chip von 304mm² auf 400mm² vergrößern mit 8 Shaderunits = 7950, wird
aber net kommen, weil AMD keine Käufer dafür sieht)

N31 vs AD102.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Orok91, Rockstar85 und HaRdWar§FreSseR
Poati schrieb:
Sieht man auch hier im Forum häufig genug, dass es Nvidia sein soll, weils immer Nvidia war, auch wenn nach allen Anforderungen das AMD Pendant mindestens genauso gut passen würde.

Nun, wenn ein Kunde seit jeher zufrieden mit der Marke X ist, warum sollte er dann die Marke Y kaufen, wenn diese "nur" "mindestens genauso gut passen würde"?
Damit der Kunde wechselt, müssten Produkte der Marke Y durchschnittlich merklich besser sein und das über mehrere Aspekte hinweg (Leistung, Preis, Features etc.).

Das ist bei momentanen Produkten von AMDs Seite aus nicht gegeben. Sie setzen sich gegenüber NVidia weder merklich hinsichtlich ihrer Leistung ab, noch merklich hinsichtlich der Preise (Ausnahmen wie der momentane Abverkauf der 6000er Serie dürften einen geringen Einfluss im Angesicht der neuen Generation bzw. kommender Karten haben), noch merklich hinsichtlich Features etc.
Sie sind im besten Fall minimal besser, im schlechtesten Fall minimal schlechter.

Dem gegenüber steht dann noch das Unbekannte für den Kunden (Treiber, Zusammenspiel mit seiner restlichen Hardware, "Feelings"). Daher: Warum sollte er die Marke Y kaufen?

Die wenigsten kaufen, in meinen Augen, NVidia "weil es ist doch Nividia!", sondern schlicht, weil die Frage "Was bietet mir AMD jetzt an Mehrwert?" für diese Kunden momentan mit einem großen Fragezeichen beantwortet wird.

Dass das mal anders war, zeigen AMD/ATI'sche Generationen wie die X800er Serie oder die HD 5000er Serie, in der AMD/ATI entweder hinsichtlich Leistung, Preis oder P/L gegenüber NVidia besser dastand und somit Kunden gewinnen konnte (oder wenigstens halten).


Rockstar85 schrieb:
Deswegen hoffe ich ja, dass FSR 3 auch auf Ampere läuft, vllt kaufen die Kunden dann später ne AMD, aber ich vertraue nicht drauf.

In meinen Augen ist der offene Ansatz von FSR bei AMD ein Kind der Not und gleichzeitig kontraproduktiv.
AMD liefert hier eher noch Argumente für den Kauf bei der Konkurrenz, weil man mit deren Karten sowohl FSR als auch DLSS nutzen kann und somit weitaus mehr Auswahl hat.
Daher ja, darauf zu vertrauen, dass Kunden deswegen später eine AMD Karte kaufen wäre recht naiv. Eher das Gegenteil dürfte der Fall sein.
 
  • Gefällt mir
Reaktionen: CM286, Innocience, KlaasKersting und 4 andere
Relaxo32 schrieb:
Damit der Kunde wechselt, müssten Produkte der Marke Y durchschnittlich merklich besser sein und das über mehrere Aspekte hinweg (Leistung, Preis, Features etc.).

Das ist bei momentanen Produkten von AMDs Seite aus nicht gegeben.
Naja dem würde ich nur bedingt zustimmen. Hab jetzt aber auch keine Lust auf eine weitere AMD vs Nvidia Diskussion. Ich hab schon bei beiden passende Produkte für mich gefunden und rein von dem was die AMD Karten insbesondere bei RDNA2 boten, wurden sie verhältnismäßig wenig verkauft. Bei den Marktverhältnissen darf man auch nicht vergessen, wie viel lieber OEMs ne Nvidia ins System packen und das hat auch nichts damit zu tun, dass die Karten grundsätzlich besser sind.
Hätte AMD ein erhebliches Interesse daran mehr Markanteile im Grafikkarten Geschäft zu gewinnen, dann könnte man sicherlich eine aggressivere Preispolitik fahren. Diese Mengen müssen sie aber auch erstmal bei TSMC bekommen und bezahlen. Im Endeffekt setzt man dann lieber eine kleinere Menge bei noch guter Marge um. Im Gamingmarkt generell ist man noch sehr lange mindestens mit den Konsolen breit vertreten.
 
Poati schrieb:
Bei den Marktverhältnissen darf man auch nicht vergessen, wie viel lieber OEMs ne Nvidia ins System packen und das hat auch nichts damit zu tun, dass die Karten grundsätzlich besser sind.
Hätte AMD ein erhebliches Interesse daran mehr Markanteile im Grafikkarten Geschäft zu gewinnen, dann könnte man sicherlich eine aggressivere Preispolitik fahren.
Den OEM´s fette Margen mit nem niedrigen Großhandelspreis bescheren?
Dann doch lieber die Einzelgrakas bei MF preiswerter anbieten.
(z.Bsp. die 6000er incl. 1x Game)

KW12 bei MF:
MF-KW12.JPG

Was OEM´s ala Saturn+Aldi so machen, ist wirklich nur Was für Schafe.
https://winfuture.de/news,135222.html
ALDI.JPG


Da würde ich gerade bei CB im Selberbauthread nachfragen, ob mir Jemand hilft.=sparsamer
https://www.computerbase.de/forum/t...sammenbau-jetzt-auch-in-deiner-naehe.1249024/
(da kann man dann sicher statt ner 4070 ne 7900xt im neuen PC<1450€ verbauen, siehe Anhang)
 

Anhänge

  • 7900xtR5600@GH.JPG
    7900xtR5600@GH.JPG
    107,8 KB · Aufrufe: 122
Zuletzt bearbeitet:
Mironicus1337 schrieb:
Besonders unter Raytracing ist die 3080 30 bis 40 % schneller.
Das mag durchaus sein, meine Bewertung bezieht sich auf die Rasterleistung. Der 30-40%ige Performancevorsprung mit RT=ON verlangt hier allerdings auch einen 30-40%igen Aufpreis.

Mironicus1337 schrieb:
Laut Computerbase überflügelte die Karte die 6950XT um 10 bis 45% in den Ratings in QHD und benötigt dabei viel weniger elektrische Energie, natürlich bezahlen die Nutzer dafür auch mehr Geld.
Hmm.. Die Benchmarks von pcgh sprechen hier eine andere Sprache (Overall, 20 Spiele, FHD bis QHD).
Hier sieht man, dass die 4070 Ti mit der 3090 Ti und der 6950 XT konkurriert.
1680222726442.png


Der Schwenk auf QHD only ändert hier kaum was. Von 10%, geschweige denn bis zu 45% mehr Performance ggü. einer 6950 XT sieht man hier kaum was, sondern vielmehr 2-3%.

1680222929391.png
 
HaRdWar§FreSseR schrieb:
Genau deshalb kritisiere ich seit Jahren AMD.
Klar kritisiert du amd du hast ja auch ne nvidia mit 12 GB vram haha
 
Ok ... ,davor hatte ich eine 6700 XT, das hat nichts damit zu tun und die 4070 ti reicht mir für alles.
Mann muss sich erst mal eine kaufen können ;)

Neben bei erwähnt hast du einfach mein Betrag halb zitiert, hast ihn aus dem Kontext gerissen.

Warum ich AMD kritisiere, fehlt.
Ergänzung ()

GerryB schrieb:
kann ich so net unterschreiben, weil die 4090 einfach sehr viel mehr Silizium hat, deswegen zu Recht teuerer
(AMD müßte schon seinen GCD-Chip von 304mm² auf 400mm² vergrößern mit 8 Shaderunits = 7950, wird
aber net kommen, weil AMD keine Käufer dafür sieht)
Wie groß oder teuer die Karten sind, spielt hier keine Rolle, ich vergleiche das, was da ist, was Mann für sein Geld geboten bekommt. Bei Nvidia ist die 4090 die High End karte und bei AMD in dem Fall die 7900XTX.
Ich geben dir mein Wort, wäre die 7900XTX ansatzweise so schnell wie die Geforce RTX 4090, dann würde die niemals für 1200 Euro über die laden Theke gehen.
 
Zuletzt bearbeitet von einem Moderator:
HaRdWar§FreSseR schrieb:
Wie groß oder teuer die Karten sind, spielt hier keine Rolle, ich vergleiche das, was da ist, was Mann für sein Geld geboten bekommt. Bei Nvidia ist die 4090 die High End karte und bei AMD in dem Fall die 7900XTX.
Ich geben dir mein Wort, wäre die 7900XTX ansatzweise so schnell wie die Geforce RTX 4090, dann würde die niemals für 1200 Euro über die laden Theke gehen.
Preisbereiche konkurrieren, nicht Produktpaletten. Die 7900XTX konkurriert nur mit der 4080, alles andere ist völliger Blödsinn.
 
HaRdWar§FreSseR schrieb:
Die Konkurrenz zu der 7900 XT ist die RTX 4080 und die 7900 XTX steht der 4090 gegenüber.
Nix steht der 4090 gegenüber...
die 7900 xt schlägt doch die 4070 ti grad mal knapp
Die XTX steht der 4080 gegenüber

HaRdWar§FreSseR schrieb:
Der wahre Gegenspieler der 4070 Ti ist die 7800 XT, wenn die mal kommt.
eher der 4070 mal sehen wieviel vram die 7800 xt bekommt Edit: Also 16 gb erwartbar was hat die 4070 nochmal haha
 

Anhänge

  • Screenshot_20230331_073733_Samsung Internet.jpg
    Screenshot_20230331_073733_Samsung Internet.jpg
    302,7 KB · Aufrufe: 113
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Fujiyama schrieb:
Die 3070 und 3060 waren nicht günstiger, die meiste zeit waren sie deutlich über die UVP. Trotzdem wurden sie viel gekauft. Falls nicht irgend ne Mining Hype entsteht dürfte die 4060 und 4070 vermutlich günstiger auf dem Markt zu kaufen sein.
Du verwechselst hier aber ein Zusammenkommen von massiven externen Faktoren mit tatsächlichem Interesse:
Covid hat massiv Leute zu hause eingesperrt und es war ordentlich Budget sowie Zeit übrig, Chip-Shortage (unter anderem wegen großer Dürre) hat die Verfügbarkeit von Chips stark reduziert UND Mining hatte zu genau der Zeit nen Boom. Alle drei zusammen sind zum Mega-Gau geworden was GPU Preise angeht.

Anno 2023 aber sieht es alles anders aus und mit Blick auf die Sales der 30er Karten sind auch diese Anno 2023 zu teuer und verkaufen sich ebenfalls wenig, so dass sich Nvidias Lager immer weiter füllen.

Denn wenn deine These hier korrekt wäre, müsste Nvidia Stand heute ja kaum 30er Karten auf Lager haben... Was aber nicht der Fall ist. Im Gegenteil, selbst mit den geringeren Preisen nach der Krise kaufen die Leute 30er GPUs nicht mehr so viel wie es Nvidia gerne hätte und da ist dann schon die Höhere Nachfrage weil die GPUs damals neuer waren von subtrahiert.

Plus, heute gibt es statt positiver externer Faktoren, welche den GPU Preis hoch halten, negative: Inflation + Krieg + Covid Ende erzeugen Unsicherheit sowie einen Wechsel vom Budget, was die Nachfrage nach defakto Luxus "Home Entertainment" drückt.

Lediglich die Quasi-Monopol-Hersteller wie hier bei GPUs versuchen auf Krampf die Preise nach oben zu drücken, auch wenn der Markt eher das Gegenteil bräuchte. Bei manchen Dingen wie Lebensmitteln mag das noch gehen, da man eher schwer drauf verzichten kann. Bei GPUs aber? Korrigier mich wenn ich falsch liege, aber meines Wisens nach brauch keiner eine >=700€ GPU um Fortnite & Co. spielen zu können ;)
 
  • Gefällt mir
Reaktionen: Fujiyama
HaRdWar§FreSseR schrieb:
Wie groß oder teuer die Karten sind, spielt hier keine Rolle, ich vergleiche das, was da ist, was Mann für sein Geld geboten bekommt. Bei Nvidia ist die 4090 die High End karte und bei AMD in dem Fall die 7900XTX.
So ein Quatsch!?
Hast Du auch die RX 5700xt mit der 2080Ti vgl.?

Das AMD ganz bewusst keine Monsterchip7950 fertigen lässt, weil man eeh kaum Abnehmer dafür finden würde,
ist betriebswirtschaftlich sinnvoll. (nach m.E. würden die "Reichen" trotzdem grün kaufen)
 
Zuletzt bearbeitet:
So sieht der Plan von AMD aus 7600 xt 8 gb vram hehe




Grafikchip
Ausbau Chips
Taktraten
Grafikspeicher
TDP
Performance-(Schätzung)
Release
Radeon RX 7900 XTXNavi 3196 Compute-Einheiten2,3/2,5 GHz24 GiB @ 384 Bit355 Watt> RTX 408013.12.22
Radeon RX 7900 XTNavi 3184 Compute-Einheiten2,0/2,4 GHz20 GiB @ 320 Bit315 Watt< RTX 4070 TI13.12.22
Radeon RX 7800 XTNavi 3260 Compute-Einheiten2,6/2,8 GHz16 GiB @ 256 Bit280 WattRX 6900XTQ3 2023
Radeon RX 7700 XTNavi 3248 Compute-Einheiten2,4/2,6 GHz12 GiB @ 192 Bit225 WattRTX 4070, RX 6800Q3 2023
Radeon RX 7600 XTNavi 3332 Compute-Einheiten2,5/2,8 GHz8 GiB @ 128 Bit180 WattRX 6650XT, RX 6700XTQ1-Q2 2023
Radeon RX 7600Navi 3328 Compute-Einheiten2,3/2,6 GHz8 GiB @ 128 Bit140 WattRX6600XT, RX 6650XTQ1-Q2 2023
[/COLOR]
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
7700XT mit 12 GB, AMD hat verstanden (wie vorher auch schon im Vergleich der 6700XT zur 3070).
7800XT mit 16 GB, AMD hat verstanden.
 
Relaxo32 schrieb:
In meinen Augen ist der offene Ansatz von FSR bei AMD ein Kind der Not und gleichzeitig kontraproduktiv.
AMD liefert hier eher noch Argumente für den Kauf bei der Konkurrenz, weil man mit deren Karten sowohl FSR als auch DLSS nutzen kann und somit weitaus mehr Auswahl hat.
hmm, kann man so sehen ja. Kann aber auch sein das AMD den Ansatz verfolgt FSR als Standard zu etablieren und dann OpenSource zu machen wie Freesync oder Mantle. Proprietäre Techniken haben einige Zeitlang einen Vorsprung das ist richtig aber irgendwann holt die Konkurrenz auf bzw. bringt ein besseres System. siehe 3dfx seinerzeit, Glide war eine tolle Schnittstelle aber stand nur einem Hersteller zur Verfügung was daraus geworden ist wissen wir alle, D3D und dann DX haben es obsolet gemacht und können quasi von allen Herstellern genutzt werden.
Nvidia bringt aber "ständig" Neue Techniken und AMD ist dabei die entsprechend zu kontern anstatt den Ball mal an NVidia mit nem KillerFeature zurück zu werfen.
 
SonyFriend schrieb:
7700XT mit 12 GB, AMD hat verstanden (wie vorher auch schon im Vergleich der 6700XT zur 3070).
7800XT mit 16 GB, AMD hat verstanden.
und
eher wird wohl die 12GB-7700 gegen die 8GB-4060 und die 8GB-7600 gegen die 6GB-4050 antreten
(preislich gesehen)

momentan reicht die 16-GB 6800xt/6900 gegen die 12GB-4070nonTi dicke aus
 
Ohne RTX ja
 
Poati schrieb:
Nun laut Test bietet das Spiel eine Top Optik, also ne grottige Optimierung kann man da auch nicht wirklich als Argument nehmen, wie bei manch anderem Titel.
Eine Top Optik hat doch nichts mit der Optimierung zu tun. Ein Spiel kann absolut wunderschön aussehen und dabei grottenschlecht optimiert sein. Crysis Remasterd oder Cyberpunk sehen beide absolut super aus sind aber keines falls gut optimiert.
 
  • Gefällt mir
Reaktionen: lynx007
Zurück
Oben