News AMD Radeon RX 7800 XT: PowerColor verrät Eckdaten der ersten Navi-32-Grafikkarte

chaopanda schrieb:
Was ist daran bitte zu missverstehen?
Die Zuordnung der Leistungsklassen nach (eine RTX 4060Ti mit einer RX 6800XT zu vergleichen passt leider gar nicht trotz der teuer aufgebohrten 16GB) hat bei Dir nicht gepasst, das war der springende Punkt ;).

Eine RX 7800XT bezogen auf eine RX 6800XT wird vermutlich das Quasi-Spiegelbild zu RTX 4070 vs. RTX 3080 werden mit besserer Effizienz aber weniger oder maximal gleichviel Rohleistung, ausser wenn RT-RT oder FSR3 ins Spiel kommen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Chismon schrieb:
Die Zuordnung der Leistungsklassen nach (eine RTX 4060Ti mit einer RX 6800XT zu vergleichen passt leider gar nicht trotz der teuer aufgebohrten 16GB) hat bei Dir nicht gepasst, das war der springende Punkt ;).
Die ist doch für den Vergleich nicht relevant (gewesen).

Ich hoffe mit der anschließenden Erläuterung ist klarer, worauf ich hinaus wollte.

Nochmal zur Sicherheit; es ging mir einzig um die jeweilige Positionierung/Leistung im direkten Vergleich zur jeweils eigenen direkten Vorgängerkarte.

AMD kopiert NVIDIA erneut im Upselling. Die Börse dankt es nach wie vor. Kann man gut finden, muss man aber nicht.
 
  • Gefällt mir
Reaktionen: Chismon und Mcr-King
Doch lohnt sich für nvidia
Der ad106 wird mit dem ad104 getauscht ujd diesen auf 42smn kastriert
Dieser hat 192bit Si und somit sind 12gb kein problem und man kann das pcb der rtx4070 nehmen
Wen man dann billigen 16gbit nimmt kommen da noch 384gb/s raus und kann die 20tf auch auslasten.
chip kosten recht teuer mit 90$ + 6 *5% =120$ aib zahlt 204$ pcb und Kühler +35$ =239$ aib marge 20% =287$ distibutor 10% transport und retail 10% = 359$ heutiger Wechselkurs = 399€ das ist billiger als die rtx4060ti 16gb diese wäre min bei 439$

Das liegt primär an den hohen pcb kosten und Kühllösung das wäre min 50$ vs 35$
Dazu die höhere marge für nvidia beim bundle
Darum sehe ich es kommen das die rtx4060ti 16gb alsbald eol wird. Vielleicht wird die 8gb sku noch geben aber sehr unwahrscheinlich da diese nicht unter 300€ verkauft werden kann
Darum der Einwand mit dem rtx4060 super und 30sm vielleicht auch 32sm
Die kosten sind gleich aber man hat die chance das Produkt an die 300€ marke zu setzen ich rechne mit nen 300€ startpreis.
man kann die sku noch kleiner designen auf nur singleslot was bei dem chip bei nur 2,2ghz problemlos machbar ist womit ne sku bis hinab auf 279€ fallen kann.

Das wird mit ad116 rtx4065 und chipkosten bei 50$ drastisch verbilligen ich gehe von 249€ aus.
Das sind gut 13tf mit nen pcix8 chip und 128bit si mit dann 24gbps gddr6x Speicher
Zu dem Zeitpunkt wäre abseits des vram menge die gpu empfehlenswert.

Der ersatz für ne rtx3060 12gb sehe ich eher bei der rtx4060ti super mit 12gb nicht ideal aber ok

Der Nachfolger also die rtx4065ti mit 16gb steht so gut wie sicher wenn amd nicht kontert.
Und das bei n4p bei 3,1ghz =18,5tf 384gb/s ab 359€

Ein blackwell design bei 44$ chipkosten würde sogar noch mehr sinn machen mit dann 12gb 512gb/s und etwa 20tf ab 379€ Eine sku mit 96bit und 9gb ram darunter mit maxed 28sm= 16,8tf und nur 384gb/s ab 299€
Das aber passiert nur dann wenn amd konkurriert und das kann amd klar mache zur gamescom und die rx7700 etwa 18tf für 349$ kommt und die rx7800 20,2tf für 449€ und der Vollausbau rx7800xt 23tf bei 499€

achja nvidia bepreist gerne ihre sku mit dxr vergleich. Das aber ist aufgrund von dlss und FG unfair und sollte nicht als Leitfaden dienen

Beide Architekturen sind gut nur verdammt schlecht vermarktet die Gründe habe ich genannt.
 
  • Gefällt mir
Reaktionen: Javeran
chaopanda schrieb:
AMD kopiert NVIDIA erneut im Upselling. Die Börse dankt es nach wie vor. Kann man gut finden, muss man aber nicht.
Ich stehe der Trittbrettfahrerei von AMD/RTG nach nVidia-Vorbild auch kritisch gegenüber und hoffe Intel schafft es eine größere Präsenz aufzubauen und einen anderen, innovativeren und mehr an den Bedürfnissen der Spielerschaft orientierten Weg im Gaming dGPU Markt zu gehen.

Solche Aktionen der etablierten Grafikkartenentwickler sind sicherlich auch ein Grund wieso der PC als Gaming-Plattform mehr und mehr Leute an die Konsolen verliert.

Zumindest gut, daß wenigstens einige Spiele wie aktuell Baldur's Gate 3 - welches komischer Weise zum erfolgreichen Nach-Early Access Start hier auf CB leider keine großartige Beachtung findet - dann doch noch eher PC als Konsolen-Gaming hoch halten (auch wenn das Spiel wohl auch später erscheinend auf Konsolen spielbar ist, aber ob die im nachfoglenden Video gelobte Gamepad-Steuerung dafür wirklich passt(?); mir ist die RPG-typische Spielweise mit Maus/Tastatur definitiv lieber).

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerToerke, chaopanda und Mcr-King
Ich verstehe die Aufregung hier nur bedingt. Alle wissen seit langer Zeit, was die beiden Architekturen der großen zwei leisten und auch, dass bei AMD der Sprung da auch in der Effizienz nicht so groß ausfiel wie erhofft. Und wir wissen, dass sich dies in der aktuellen Generation nicht ändern wird. Einzig FSR3 bleibt noch etwas eine unbekannte.

Und damit wissen wir auch alle sofort: Die nun von AMD erscheinenden Karten sollten preislich da weitermachen, wo die 6000er-Generation am Ende aufgehört hat, sonst bleiben auch diese im Regal liegen wie man eine andere Karte von Nvidia aktuell.
Ich persönlich denke mir: Eine RX7700 mit 12GB und etwas über 4060 TI Leistung, dafür preislich darunter, joa, da könnte ich schwach werden, solange man mit einem Stronstecker hin kommt.
 
  • Gefällt mir
Reaktionen: Fallout667, Chismon und Mcr-King
Mcr-King schrieb:
....
Nur mal so am Rande.
...

Da kann ich auch im mobilen Sektoren Beispiele nennen.

Zum Beispiel die auf Ampere basierte RTX 3050 Mobile besitzt ein Gegenstück namens A1000 Mobile mit weniger TDP und kleinerem Takt. Beide besitzen 4GB Grafikspeicher mit 128bit Speicheranbindung.

Aus unbekannten Gründen hat Nvidia jedoch zeitgleich eine 6GB Variante der A1000 Mobile veröffentlicht, diese bietet sogar 192bit Speicheranbindung.

Das Gleiche geschah mit der A2000 welche als 12GB Variante ebenfalls mit einem 192bit Speicherinterface ausgestattet wurde und für aktuelle Spiele ausreichend Grafikspeicher bietet.

Weiteres lustiges Beispiel:

RTX 2000 Mobile Ada Generation, da wurde gleich die gesamte Generation durch Ada Lovelace ersetzt, zumindest steht das mehr oder minder im Namen.

Die RTX 2000 Mobile Ada Generation ist das Gegenstück zur RTX 4060 Mobile. Witzig dabei ist das die professionelle Variante einen höheren GPU Takt bietet.
 
Blood011 schrieb:
Ja das nervt langsam,man könnte meinen AMD will ganz in der versenkung verschwinden.
Nur ein kleiner Teil interessiert FSR3 überhaupt.
Hier im Forum ist es natürlich nicht so und doch ist es egal.
 
  • Gefällt mir
Reaktionen: Mcr-King
Naja würde ich nicht so pauschal sagen grade viele GTX, Polaris, Vega und Intel Benutzer schon. ;)
 
Elandion schrieb:
sehr interessant, was andere, findige Augen in dem Bild erkannt haben:
Anhang anzeigen 1382577

sofern da nicht extra aufwand mit tieferen Layern beim PCB getrieben wurde,
hat die Karte nur ein x8 Interface.

Das macht dann den Vergleich mit den Vorgängern noch mal interessanter, wenn vielleicht in einigen Spielen die Speicherbandbreite doch einen Einfluss haben kann.
Dazu fällt mir nur folgendes auf aus dem heutigen Artikel von Computerbase zur 15 Jahre alten ATI Radeon 4870 X2 🥸🥸🥸🤪🤪🤪

5-1280.jpg


Also mal tief Luft holen und abwarten bis die Karte kommt, denn alles andere sind nur Spekulationen. Ich glaube nicht, das die RX 7800XT nur mit PCI Express x8 4.0 laufen wird, denn das wäre ein zu großer Leistungsunterschied zur RX 7900 GRE ebenso die RX 7800. Bei der 7700 halte ich PCI Express x16 4.0 auch noch für möglich.

Hier wird es sich wahrscheinlich so verhalten wie bei der Vorgänger Generation, denn die 7600 ist ja die erste Karte mit Navi 33 die beschnitten wurde. Die Radeon RX6600 und RX6650 aus der RDNA2 Zeit sind auch mit PCI Express x8 4.0 angebunden.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR und Mcr-King
bondki schrieb:
Laut diversen Gerüchten hat AMD in der nächsten Gen sowieso (mal wieder) keine High End GPUs, da würde mich das weitere verarschen bei den 7000er GPUs nicht wundern.
https://www.pcgamer.com/next-gen-am...dly-wont-compete-with-nvidia-at-the-high-end/
Natürlich reiner Spekulatius. Aber wenn man sowohl die Performance-Gap von Navi31 zu AD102 (selbst im nicht vollen Ausbau der 4090) als auch die niedrigere Effizienz berücksichtigt, halte ich es für gut möglich, dass man Frühzeitig davon ausgeht diese Lücke zu Nvidia nicht schließen zu können.

Ist jetzt nicht das Ende der Welt wenn man mit einer 5080 mithalten können sollte, den Unterschied in Raytracing reduzieren kann, FSR3 einen deutlichen Schritt nach vorne macht und man die geringere Energie-Effizienz verbessern kann.

Aber gerade an den Aspekten muss man dann doch dran bleiben bzw die Lücke reduzieren.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wintermute schrieb:
Du hast mich falsch verstanden mit Neid hat das nichts zu tun, vielmehr wollen alle eine 4070Ti für 500 Euro haben, da die alten Radeon, wenn es nach einigen Usern geht, die bessere Wahl ist wegen dem 16 GB auf den Karten, das meine ich damit.

Wie gesagt, ich habe keine Ruckler und fahre auf Max Details auf 3440x1440 und bin richtig zufrieden Cap schön die FPS auf 141, dazu G sync und der Verbrauch ist immer schön bei 200 Watt. Bei einer 3090TI oder 3090 bist du über 200 Watt selbst mit fps cap das meinte ich damit.

Und danke werde ich nicht, ich wollte mit eigentlich auch ein anderes kaufen geplant war die 7900XTX. Nur hat mir das Gesamtkonzept diesmal nicht gefallen, also wurde es dann die 4070TI Game Rock classic.
Ich könnte locker eine 4080,4090 mir, Gönnen. Nur habe ich ein Grundprinzip möchte nicht mehr wie 1000 Euro ausgeben für eine GPU.


lg und ein schönes Wochenende wünsche ich dir. :)
Ergänzung ()

Feierbiest schrieb:
Ist jetzt nicht das Ende der Welt wenn man mit einer 5080 mithalten können sollte, den Unterschied in Raytracing reduzieren kann, FSR3 einen deutlichen Schritt nach vorne macht und man die geringere Energie-Effizienz verbessern kann.
Das ist ein Wunschdenken, AMD ist aktuell nicht in der Lage, dazu alle diese Dinge in die Tat umzusetzen.
Ergänzung ()

bondki schrieb:
Laut diversen Gerüchten hat AMD in der nächsten Gen sowieso (mal wieder) keine High End GPUs, da würde mich das weitere verarschen bei den 7000er GPUs nicht wundern.
https://www.pcgamer.com/next-gen-am...dly-wont-compete-with-nvidia-at-the-high-end/
Tja, dann hat man wohl eingesehen, dass man nicht mehr konkurrenzfähig ist.
Ergänzung ()

Painkiller72 schrieb:
Hier wird es sich wahrscheinlich so verhalten wie bei der Vorgänger Generation, denn die 7600 ist ja die erste Karte mit Navi 33 die beschnitten wurde. Die Radeon RX6600 und RX6650 aus der RDNA2 Zeit sind auch mit PCI Express x8 4.0 angebunden.
Ich denke auch das, die mit 4.0 am Start sein wird, ob es jetzt einen Unterschied macht wir werden sehen.
Rechne damit das die 7800 XT, die 6800 XT ablöst und 100 Euro mehr kosten wird wie aktuell eine 6800 XT.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Wintermute
HaRdWar§FreSseR schrieb:
Tja, dann hat man wohl eingesehen, dass man nicht mehr konkurrenzfähig ist.
Naja stimmt nicht ganz es sollen ja mehre kleine (GCD) + (MCD)

Also praktisch (2024 GCD) x3 + 3x (MCD) so ungefähr soll sogar mit RDNA 3,5 schon kommen ;)

in einer APU zum Testen.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Es würde mich so was von freuen, wenn die Roten mal den Grünen wieder die Hölle Heißmachen würden, davon hätten wir alle was. Ich möchte nicht nur eine Radeon, die nicht nur in Sachen FPS-Balken vorne ist nein, sondern eine geile Effizienz, gutes RT und vor allem, endlich mal ein FSR das mit DLSS mithalten kann.
Glaube mir, ich wäre der erste, der sich die holt, bin gespannt und drücke uns allen die Daumen. :)


lg
 
  • Gefällt mir
Reaktionen: Fallout667, Wintermute, DerToerke und 2 andere
Mcr-King schrieb:
Also praktisch (2024 GCD) x3 + 3x (MCD) so ungefähr soll sogar mit RDNA 3,5 schon kommen ;)

in einer APU zum Testen.
Wo kommt das denn her? Mir ist nicht bekannt, dass RDNA3.5 mehrere GCDs nutzen soll. Strix Point ist sowieso ein kompletter Monolith nach aktuellem Stand. Strix Halo bekommt Chiplets, aber mehrere GCDs für maximal 40 CUs? Unwahrscheinlich.
 
Naja Vorteile liegen auf der Hand man ist flexibeler 20CUs +20CUs ist 40CUS, aber du kannst auch nur 20 machen ohne viel zu verändern.

Wie bei Zen3 und Co auch ist die Ausbeuten besser und du bekommst mehr Chips raus aus einem Waffer.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Verak Drezzt schrieb:
die 4070 hat nicht mal die Leistung der 3080 und wenn die 7800XT auf selbigen Niveau kommen sollte, dann immerhin mit 16GB und wohl günstiger
Interessante Aufassung, den die 4070 und 3080 sind identisch 1:1 in der Leistung.
Zusätzlich hat die 4070 bessere Effizienz, sowie Frame Generation, man braucht nur in entsprechenden Titeln FG zuschalten und schon ist die 3080 weit hinten, dazu 12GB.

Na klar die 4070 hat nichtmal die Leistung der 3080... (Siehe Bild, ist wohl an dir vorbeigegangen)


Taurus104 schrieb:
Damit ist sie aber verglichen mit der 6800XT nochmal eine bessere Alternative zur 4070.
BEI ENTSPRECHENDER BEPREISUNG!

Der Taurus, ewig hat er Recht und hat eine Aufassung stets AMD positiv... man merkt öfters als passiver Leser wenn man den Stier und deinen Nick sieht da kommt nur AMD geschwafel.

Von was bitte sprichst du? Bessere Alternative zur 4070?

-Kein Frame Generation
-Kein DLSS (FSR ist einfach schlechter)
-Ab 600€ lieferbar
-Schlechtere RayTracing Performance

Jetzt spekulierst du wild rum, das es eine bessere Alternative bei entsprechender Bepreisung wäre..

Ja was ist den eine entsprechende Bepreisung die deiner meinung nach die 7800xt zur "besseren" Alternative machen würde?

Die Karte müsste 450-500€ kosten, damit man auf DLSS/FG/Schlechtere RayTracing Performance verzicht ernsthaft in betracht ziehen könnte. Nur für 4 GB Ram mehr??

Die 7800xt ist wenn eins die schlechtere Alternative sollte Sie um die 600€ kosten was ich sehr stark vermute.

Warum sollte man auf FG und DLSS verzichten? Und zusätzlich schlechtere RayTracing Performance freiwillig kaufen??? Wenn die 4070 für 600€ verfügbar ist.

Für 16GB Ram? die 12GB werden erstmal ausreichen

Sämtliche Titel laufen in 4K/DLSS absolut flüssig auf Ultra einstellungen mit einer 4070 oft mit Raytracing.

Die 12 GB sind zwar knapp, aber reichen absolut für Hogwarts Legacy,Last of US, usw.
 

Anhänge

  • Screenshot 2023-08-05 231955.png
    Screenshot 2023-08-05 231955.png
    226,1 KB · Aufrufe: 104
Zuletzt bearbeitet:
Taurus104 schrieb:
Die Leistung einer 6800XT +/- 10%, bei niedrigerem Stromverbrauch als der Vorgänger, bessere RT Leistung zum Vorgänger und AV1 Support ist ok, bei entsprechendem Preis.
Natürlich wäre mehr immer schöner aber je nach Preis, verstehe ich hier diesen negativen Aufschrei nicht.
Taurus104 schrieb:
Die Preise sind noch nicht bekannt. Und bisher wurde nur die 7800XT vorab gezeigt. Niemand ausser AMD und Eingeweihte weiß was noch vorgestellt wird.
Was genau verstehst du denn vom negativen Aufschrei nicht? Wir reden doch hier von einem de facto Stillstand. Hier wird nahezu ein Rebrand betrieben von einer drei Jahre alten Karte, die mit ein paar minimalen Verbesserungen kommen und einen Preis aufrufen wird, der GEWISS nicht auf dem Niveau des Straßenpreises ihrer pre-gen liegt, die momentan noch verkauft wird, sondern mindestens die MSRP der pre-gen haben wird.

Taurus104 schrieb:
FSR 3 wird nach letzter offizieller Aussage auch auf alten RDNA GENs laufen.
Was ich feiern werde, aber genau das wird den ohnehin schon kaum vorhandenem Mehrwert der 7800XT ggü. einer 6800XT ja noch weiter verringern.

Taurus104 schrieb:
Die großen 6000er Karten sind bereits länger EOL und werden nicht meht produziert. Der Abverkauf ist fast abgeschlossen. Sie werden bald am Markt verschwunden sein und wenn es mal noch vereinzelt Karten gibt werden die Preise unattraktiv sein.
Von ursprünglich 12x verschiedenen 6800XT Modelle sind bei MF noch 4x über geblieben.
Das mit dem Hauptfeind wird sich bald von selbest erledigt haben.
Da bin ich derselben Ansicht. Die 6800XT wird nach Release der 7800XT kaum vom Preis runtergehen und irgendwann ganz verschwinden. Aber was daran ist jetzt gut?
So wird der Preis der 7800XT schön oben gehalten und es darf wunderbar so getan werden, als gäbe es die fast gleiche Leistung jüngst nicht zum deutlich niedrigeren Preis.

Nicht böse gemeint, aber ich bekomme bei deinen Aussagen das Gefühl, dass du ständig AMD irgendwie ins positive Licht rücken willst oder zumindest nahezu alles relativieren möchtest. Nein, ich finde Nvidias Verhalten nicht besser.

Thor2607 schrieb:
Ihr tut so als würde das AMD mit Absicht machen um uns Kunden zu gängeln.
Ne moment, AMD macht das alles aus Versehen! Die wollten nur das beste für uns zum bestmöglichen Kurs und haben endlich ihren tugendhaften Konkurrenten zum Vorbild genommen.

Thor2607 schrieb:
Die Grafikkarte sollte nicht die (Haupt-)Aufgabe haben, unspielbare Spiele durch "Tricks" spielbar zu machen, sondern effiziente Spiele/Programme effizient, sauber und flüssig auszuführen.

Das geht seit einiger Zeit echt komplett in die falsche Richtung...
Wenn Techniken, die mit Hilfe von Algorithmen Dinge erledigen wie temporale Rekonstruktion, Upscaling, Schärfen, Glätten etc., dann sind sie in ihrem "Tricksein" nicht anders als raw compute. Nach deiner Argumentation wären auch mp3s schlecht, weil es gefühlt ja nicht darauf ankäme, was man hört, sondern wie das Gehörte "zu Stande" kommt.

Was aus Kundensicht in die falsche Richtung geht ist nicht die Entwicklung solcher Techniken, sondern die teils künstliche Limitierung auf bestimmte Hardware um deren Preise zu rechtfertigen, aber leider ist das bei vielen Dingen der Fall. Ich bin mir ziemlich sicher, dass du deine Aussage überdenken würdest, wenn die ganzen "Featuresets" nicht proprietär wären.

Vitche schrieb:
Bei 7800 XT zu 6800 XT sehe ich schwarz wenn AMD da den alten UVP der 6800 XT aufruft. Selbst bei 600 Euro und damit einem Gleichstand zum Marktpreis der 4070 wäre die Karte ohne (gutes!) FSR 3 nahezu irrelevant, die 16 GB mal außen vor.
Ich gehe jede Wette ein, dass die MSRP der 7800XT keinen Cent weniger sein wird und selbst wenn sie ein paar Dollarchen drunter liegen sollte, wird das bei dem sonst kaum vorhandenen Mehrwert ggü. der pre-gen und dessen momentanem Straßenpreis unbedeutend sein.

Ein starkes FSR3 könnte daran nur dann etwas ändern, wenn es auf der pre-gen DEUTLICH schlechter performt, sofern es auf dieser laufen wird, was begrüßenswert ist. Sollte FSR3 auch auf der Konkurrenz laufen, wird als einziges Argument nur noch die +4G VRAM bleiben.

Bezogen auf die aktuellen Verhältnisse kann man Nvidia und AMD beide in die Tonne kloppen.
 
  • Gefällt mir
Reaktionen: Fallout667, DerFahnder, chaopanda und 4 andere
elunarom schrieb:
Na klar die 4070 hat nichtmal die Leistung der 3080... (Siehe Bild, ist wohl an dir vorbeigegangen)
solang DLSS 3.0 und FG vielleicht gerade mal in jedem 10. neu veröffentlichten Game verfügbar ist, wenn überhaupt, kein wirkliches Argument und daher, nein da ging nichts an mir vorbei

https://www.nvidia.com/en-us/geforce/news/dlss3-supports-over-35-games-apps/

edit
kommt jetzt in Zukunft auch nicht wirklich etwas wofür man meint sich deshalb unbedingt eine Nvidia Karte zulegen zu müssen, wobei ich die Kaufentscheidung eh nicht an dem ein oder anderen Titel festmachen würde,

DLSS 3 games on the way:​

Some of these games are already out but are waiting on a patch to add DLSS 3; others will launch in the future with DLSS 3 ready to go.
  • Ashfall
  • Ash Echoes
  • Black Myth: Wukong
  • Chernobylite
  • F1 23 (update coming post-launch)
  • Honor of Kings: World
  • Icarus
  • Legend of Ymir
  • Marauders
  • Midnight Ghost Hunt
  • Naraka: Bladepoint
  • Ripout
  • STALKER 2: Heart of Chornobyl
  • Scathe
  • Super People 2 (available now in early access)
  • Sword and Fairy 7
  • Synced
  • The Day Before
  • The Finals
  • Throne and Liberty
  • Warhaven
  • Witchfire
- https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-games

bei begrenzten Budget und entsprechender Auflösung würde ich wohl dahingehend entscheiden mir wegen DLSS3 und FG eine Nvidia Karte zu holen, oder wenn ich das upgraden soweit wie möglich nach hinten verschieben will was die Features betreffen, wobei die 4070(Ti) mit ihren 12GB VRam da auch nicht wirklich glänzen was das betrifft,

aber da ich eh jede neue 2. Gen aufrüste, ist das für mich kein wirkliches Thema und nach der Firmenpolitik seit der GTX970 ist Nvidia eh unten durch bei mir und hat sich die letzten Jahre auch nur weiter verfestigt mit ihrem proprietären Mist und ihrer Preisgestaltung seit Turing und dem ersten Mining-Hype, vom Speichermanagement und ihrer dahingehend geplanten Obsoleszenz erst gar nicht zu reden
Ergänzung ()

ShiftC schrieb:
Ich gehe jede Wette ein, dass die MSRP der 7800XT keinen Cent weniger sein wird und selbst wenn sie ein paar Dollarchen drunter liegen sollte, wird das bei dem sonst kaum vorhandenen Mehrwert ggü. der pre-gen und dessen momentanem Straßenpreis unbedeutend sein.
AMD orientiert sich da aber auch nur an dem Lineup was Nvidia zur Zeit vorgibt und wenn sie nun eine 7800XT mit 16GB für 50$ weniger wie ne 4070 mit selbiger Leistung bringen, tja nun. Keine Frage, prall sieht anders aus im Vergleich zur Lastgen.

Aber man orientiert sich entsprechend am Konkurrenzprodukt und sollte da noch eine 7900 non XT mit 20% Mehrleistung zur 6800XT/7800XT für 100$ Aufpreis dazwischen kommen, wobei ich mir da ehrlich gesagt nicht wirklich sicher bin aufgrund des Lineup's von Nvidia, aber wir werden sehen was die Zeit noch bringt.

Und ja kann ich dir nur zustimmen, die Gen. ist bei beiden Herstellern vom Preis als auch Leistung, für die Tonne und kann nur damit abgestraft werden die Ware in den Regalen vergammeln zulassen, bis es der Preis für die gebotene Leistung regelt.
Ergänzung ()

Verak Drezzt schrieb:
und kann nur damit abgestraft werden die Ware in den Regalen vergammeln zulassen, bis es der Preis für die gebotene Leistung regelt.
da bin ich übrigens der Meinung das eine 4080/7900XTX nicht mehr wie 850€ zum Release, für ein gutes Custommodell, kosten sollte und wir ansatzweise wieder dahin zurückkehren wo wir vor dem Mining-Hype waren
 
Zuletzt bearbeitet:
Zurück
Oben