News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

.Sentinel. schrieb:
Diejenigen, die keine Karte besitzen, die das darstellen kann, reden es klein.
Diejenigen, die es nutzen können hingegen, stellen es als das non plus ultra dar.

Je größer die Install- Base in Sachen RTRT werden wird, umso höher wird plötzlich die Zustimmung sein, dass es der Grafikqualität/Atmosphäre spürbar zuträglich ist... und plötzlich werden auch die Blinden sehend und werden die Unterschiede erkennen.

Irgendwann wird es zur Normalität und es wird drüber geschimpft, wenn es nicht so aussieht

Wenn Raytracing es den Entwicklern ermöglicht über eine komfortable Art und Weise diese Effekte einzubinden, anstatt dies über die bisherigen Maßnahmen mit höheren Aufwand irgendwie zu ermöglichen, dann sollte dies auf jeden Fall mehr Aufmerksamkeit verdienen und gefördert werden, damit dass in Zukunft Standard wird.
Ich denke damit lässt sich noch einiges besser darstellen lassen.

Jedoch muss man einfach den Performanceverlust in den Griff bekommen.
Entweder durch Verbesserungen der Technik selbst, leistungstärkere Hardware-Generationen oder eben durch zusätzliche Hilfs-Methoden wie DLSS oder dessen Alternativen.

Da ist gerade ein Umbruch drin, genauso wie bei DLSS, wo man es schaffen kann alle mitzureißen und nicht nur eine kleine Nischengruppe. Aber dazu muss das alles Standard werden und von Grün und Rot gleichwertig nutzbar sein in einem guten Preis/Leistung/Watt Verhältnis.

Dann werden es auch alle feiern. :)
 
Zuletzt bearbeitet:
mc_ace schrieb:
Jedoch muss man einfach den Performanceverlust in den Griff bekommen.
Entweder durch Verbesserungen der Technik selbst, leistungstärkere Hardware-Generationen oder eben durch alterantive Hilfs-Methoden wie DLSS oder dessen Alternativen.
Die RTRT Technik, wie wir sie im Augenblick erleben ist noch sehr Jung.
Die Fortschritte erheblich.

Innerhalb kürzester Zeit ist man so weit gekommen um nachfolgendes in Echtzeit darstellen zu können:

Das ist schon ne Nummer. Und man ist hier einer umfassenden Lösung näher, als es einige denken.
Der Markt zwingt die Hersteller aber dazu, auf alte Technik zu setzen, weil dadurch deutlich mehr Absatz generiert werden kann.

Nicht die möglichkeiten der Technik hält die Entwicklung derzeit zurück, sondern die Wirtschaftlichkeit bzw. der geringe Kreis an Usern, die das dann auch tatsächlich ordentlich nutzen können.

Da ist gerade ein Umbruch drin, genauso wie bei DLSS, wo man es schaffen kann alle mitzureißen und nicht nur eine kleine Nischengruppe. Aber dazu muss das alles Standard werden und von Grün und Rot gleichwertig nutzbar sein in einem guten Preis/Leistung/Watt Verhältnis.

Dann werden es auch alle feiern. :)
So sieht es aus...
 
  • Gefällt mir
Reaktionen: foo_1337 und mc_ace
.Sentinel. schrieb:
Nicht die möglichkeiten der Technik hält die Entwicklung derzeit zurück, sondern die Wirtschaftlichkeit bzw. der geringe Kreis an Usern, die das dann auch tatsächlich ordentlich nutzen können.

Ja, dass sehe ich genauso.
Ich hoffe da tut sich noch etwas.
Denn die Technik ansich sollte man nicht einfach so kleinreden.
 
  • Gefällt mir
Reaktionen: .Sentinel.
BlackRain85 schrieb:
Gut, da die 6800XT dringend mit der 3080 gleichziehen muss, gabs da kein Spielraum mit dem Takt nach unten.
ABER warum hat die 6900XT nicht zumindest nochmal 3 - 5% mehr takt, damit der Unterschied deutlicher wird.
Ob bei Teillast die 6900 dann nen höheren Takt fahren kann als die 6800XT wäre die Frage, man darf schließlich net vergessen, das Stock für Beide nur PL=300W gilt. Bei Vollast taktet die 6900 sicher niedriger.
BlackRain85 schrieb:
Da hat sich mal jemand die Mühe gemacht und den Performance Gewinn von SAM und RAGE auf die 6800XT dazu zu Rechnen und Sie dann gegen die 6900XT ggü. gestellt.
......aber irgendwie blick ich noch immer nicht dahinter, wieso beide den selben Takt haben!
Ist Das denn sicher, das Beide mit demselben eff.Takt laufen? Könnte genauso gut sein, das die 6900 etwas niedriger taktet.(im PL) .. Golden Chip ist nicht verifiziert bis jetzt.
Interessant ist Rage, welches nur 1-2% bringt. Könnte also OHNE anheben des PL sein !?
Falls der Takt bei entspr. Temp. 20-40MHz angehoben werden kann. Gab ja auch Spekus das evtl. nur die CPU Core X
höher taktet, falls ein CPU-Limit vorliegt. Muss man mal vgl. wie Rage in niedrigen vs. hohen Auflösungen arbeitet.

Für die 6900XT ist auf jeden Fall ein Waterblock sinnvoll, weil ab 300W das Ganze erst interessant wird.(390W?)
Die 3090er z.Vgl. laufen unter Wasser ca. 25mV niedriger stabil, je nach Cap und 30-40W sparsamer.
[Sammelthread] - Nvidia Ampere [Sammelthread] | Seite 177 | Hardwareluxx
[Sammelthread] - Nvidia Ampere [Sammelthread] | Seite 178 | Hardwareluxx
Da steckt also in den Großen noch Potential.
Die Kleinen sind dann schon eher im Brechstangenmodus.

Das Ganze kann man dann eigentlich auch nur in 4k vergleichen, weil ja erstmal die ganzen Shader ausgelastet
werden wollen.
Was übrigens aufgefallen ist, das die zuletzt ausgelieferten 3090strix net automatisch bessere Chips haben als die 3080. Kann also gut sein, das Jensen sowenig 3080er ausliefert, um erstmal mit der 3090 Kasse zu machen.
(bei der Preisklasse eigentlich totaler Shit, da darf man doch wohl selektierte Chips erwarten)
 
Zuletzt bearbeitet:
Ich hab mir jetzt 28 Seiten Forenthread durchgelesen und wow.
Ich kann dem Fanboy gehabe auf beiden Seiten nichts abgewinnen.

Ich kaufe wie ich meine Hardware benötige. Und Preis-Leistung ist immer ein auch ein Argument. Warum bei mir die 3090 gar nicht relevant war.

Meine 3080 Bestellung wurde storniert nachdem ich 4 Wochen auf die Karte gewartet habe. Damit wirds ne AMD sofern die liefern können.

Sapphire Toxic 6800XT wäre traumhaft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: blackTEHhawk, maisenkaier, Benni82 und 3 andere
für 649 Euro wird man aber kein Custom Model bekommen,oder?!
Weiß man schon wie das Referenzdesign so wird?

Ich gebe definitiv nicht mehr als 649 Euro aus :)
 
Benni82 schrieb:
für 649 Euro wird man aber kein Custom Model bekommen,oder?!
Weiß man schon wie das Referenzdesign so wird?

Ich gebe definitiv nicht mehr als 649 Euro aus :)
Für 649€ wirst du auch das Referenzdesign nicht bekommen, das wird zwischen 679€ und 699€ liegen, so eine Nitro+ könnte schon in Richtung 749€ gehen
 
Selber schrieb:
Ist die Zukunft schon da? Raytracing ist einfacher zu implementieren, als mit vielen Tricks Schatten und Spiegelungen möglichst real aussehen zu lassen? Ohne RT fähige GPU werden die Spiele optisch nur noch schlechter?

Bin mal gespannt ob es so kommt, oder nicht.

Das wäre evtl die Option.
Wenn RT off ist, würde das Spiel weniger gut sehen als ein Spiel ohne RT Option.

Alleine das Wasser von Watchdogs sieht schrecklich aus. Man nehme z.b Crysis als Vergleich
 
  • Gefällt mir
Reaktionen: Backet und foo_1337
Taxxor schrieb:
Für 649€ wirst du auch das Referenzdesign nicht bekommen, das wird zwischen 679€ und 699€ liegen, so eine Nitro+ könnte schon in Richtung 749€ gehen
Vorrausgesetzt natürlich AMD kann liefern. Wenns so ein Fiasko wird wie bei Nvidia, werden die Preise auch unverschämt weit nach oben klettern, wie aktuell bei Caseking, Alternate, Ebay und wie die einschlägigen Plattformen auch alle heißen mögen... :mussweg:
 
Verstehe ich immer nicht.Die 6800XT soll doch 649 Euro kosten?!

Dann warte ich halt bis sie billiger wird.
 
Benni82 schrieb:
Die 6800XT soll doch 649 Euro kosten?
Soweit ich weiß, ist der einzige Preis der bisher offiziell genannt wurde $649 UVP in den USA.
Das mag, nach Umrechnung und Mehrwertsteuer in D etwa 650€ sein, aber das wissen wir erst sicher in ca. 2 Wochen.
 
Benni82 schrieb:
Verstehe ich immer nicht.Die 6800XT soll doch 649 Euro kosten?!

Dann warte ich halt bis sie billiger wird.

Wenn die Nachfrage zum Launch so hoch sein wird, dann schlagen die Händler gerne mal etwas drauf.
Weiß gerade nicht, ob man bei AMD direkt zu UVP kaufen kann oder ob nur auf Drittanbieter/Händler verwiesen wird.

Die Custom Modelle mit hauseigener Übertaktung und eigenem Kühldesign schlagen meist nochmal 10-20% oben drauf.

Wenn dann alle Karten schnell vergriffen sind und eine neue Lieferung nicht in Sicht ist, steigen die Preise meist an. Sieht man ja an Nvidia.

Das wird sich im Laufe der Zeit einpendeln.
Falls genügend Karten verfügbar sind, gibt es vielleicht auch bessere Preise und ggf. auch zu UVP.

Wird sich zeigen wie hoch die Nachfrage ist und wie viel zum Launch geliefert werden.
Wenn du warten kannst, wird es dann vermutlich günstiger. :)
Ergänzung ()

frazzlerunning schrieb:
Soweit ich weiß, ist der einzige Preis der bisher offiziell genannt wurde $649 UVP in den USA.
Das mag, nach Umrechnung und Mehrwertsteuer in D etwa 650€ sein, aber das wissen wir erst sicher in ca. 2 Wochen.

Ja, meist übernehmen die 1:1 die Preise.
Steuer hin oder her.
649$ wird denke ich auch 649 Euro werden.
Da machen die es sich momentan einfach.
Zumindest in Ländern, wo die Leute auch genug verdienen ;)
 
Zuletzt bearbeitet:
GerryB schrieb:
---Vollzitat entfernt---
bitte Zitierregeln beachten

Naja zumindest sieht es danach aus. Würde ins Schema passen, dass die 6800Xt eigentlich hätte geringer Takten sollen, weil es ja die 6800er auch tut. Und das beide Modelle mit 300W angegeben werden (vor allem die 6900XT) finde ich angesichts dessen das 375W zur Verfügung stehen, stark stinkend nach einem Konter Produkt in der Rückhand zu haben. 6950XT ? 6900 XTX ?

Wäre aber Logisch, dass AMD das nun auch macht was bei NV ja inzwischen zum guten Ton gehört.
AMD bringt eine mit 350W - 375W raus (was auch einen Performance Unterschied machen kann) und die CD's dann höher mit anderen PCB's. Wenn man mich ran gelassen hätte Strategisch, hätte ich es zumindest so gemacht. XD

Mal doof gefragt, was macht denn AMD, wenn NV ne 3080 TI mit 20GB bringt für von mir aus auch 999$??? Die ist dann genau so schnell wie die 6900XT. Soll AMD dann wieder nach alter Strategie den Preis senken um mit zu halten oder wie es nun seit einiger Zeit ist (was auch besser zum derzeitigen AMD passt) auf Angriff gehen?

Als Konter würde meine Strategie so aussehen:

6800 = 529 $( Preissenkung und alle 3070er sind ausradiert )
6800 XT = 649 $ ( 3070 Ti )
6900 XT = 829 $( Preissenkung und alle 3080er sind ausradiert )
6950 XT 350W = 999 $ ( 3080 Ti )
6950 XT 32 GB 350W = 1.149 $ ( 3090 ohne SAM und RAGE ebenbürtig oder auch besser?)

Durchschnittlich würde AMD sogar mehr Umsatz machen, da sich der Durchschnittliche Verkaufspreis Richtung 6900XT verschieben würde. Siehst du das auch so?
 
Zuletzt bearbeitet von einem Moderator:
Nunja eine 3080TI kann nicht arg viel schneller werden als die 3080, weil zwischen 3080 und 3090 nur
7-11% liegen. Das ist nix.
Der zusätzliche Speicher ist sicher interessant. Aber es könnten genausogut 12GB sein.
Eben ein 3090 mit halber VRAM-Bestückung.

Und über 300W wollte AMD wohl nicht gehen, weil das war ja immer verpöhnt.
Vielleicht ist die 6900XT einfach besser gebinnt.
Und wenn man sich anschaut wie hoch die Taktraten im Bios dieser Karten maximal zu sehen
sind ist ja noch ne menge Luft nach oben für die OC Partnermodelle oder später wenn die Fertigung
gereift ist vielleicht ein XTX Modell mit mehr Takt bei gleichem Verbrauch.
Es geisterte auch mal ein 18 GBit GDDR6 Speicher von Samsung in den Medien, der eigentlich seit
anfang 2018 in Serie gefertigt werden sollte. Das wäre auch schön für son Update.
 
Taxxor schrieb:
Lustig finde ich die Kommentare unter dem Video. Die Hälfte ist überwältigt wie viel Unterschied RT in dem Spiel macht, die andere Hälfte sagt, dass es kaum auffällt.
Es gibt halt nicht die eine Engine, die alle schon ewig nutzen und entsprechend auch noch damit Optiken raushauen, die in der Qualität und Stilistik identisch sind. Nicht nur, dass jeder die Sachen anders wahrnimmt, er setzt auch noch ein anderes eigenes Lieblingsgame als seine Referenz fest..

Mir selber ist RT in schnellen Spielen (Shooter, Renn, ...) erst mal egal, wenn die Effekte ablenken können und ich da mit einem kompetitiven Ansatz rein gehe.
Danach hoffe ich, dass RT nur in vernünftiger Menge eingesetzt wird, nicht dass es wie bei ein paar den ersten Tesselation Spielen endet, die weniger Spiel als viel zu übertriebene Techdemo endeten.
Dann hoffe ich, dass die Entwickler sich mal vor Augen führen, dass es bei RT nicht nur um Spiegelung geht, sondern um Licht im Allgemeinen, also auch Licht in verschiedenen Umgebungen, wie unterschiedliche Gase aber auch (im / unter) Wasser in unterschiedlichen Tiefen und Aggregatzuständen.
Und zum Schluss sollte man sich auch vor Augen halten, dass der permanente Einsatz von RT auch nicht sinnvoll ist. Mit RT kann man imposant realistische Szenarien erschaffen, aber phantasivolle und künstlerische Szenarien sind da schwerer, da diese “Realität“ (in der Lichtbrechung) dann nicht unbedingt eine Hilfe ist.
 
  • Gefällt mir
Reaktionen: Backet
Benni82 schrieb:
Verstehe ich immer nicht.Die 6800XT soll doch 649 Euro kosten?!
Dann warte ich halt bis sie billiger wird.
mc_ace schrieb:
Wenn die Nachfrage zum Launch so hoch sein wird, dann schlagen die Händler gerne mal etwas drauf.
Normalerweise gibts bei MF immer die Ref.Grakas von AMD zum UVP.
Meist gibts ja mehrere Drops und bei Einigen kommt sicher der UVP.

Der Lü. der Ref soll ja erstmal rel. leise sein, wenn man net zusätzlich das PL erhöht. (37dB ?)
2,5 Slot ist net ganz so gut wie die 3-Slot Customs aber reicht, vor Allem, wenn man nur UVen möchte.
 
  • Gefällt mir
Reaktionen: mc_ace
Leiser als meine 5700XT Mech OC ist sie sicher :D
 
modena.ch schrieb:
Nunja eine 3080TI kann nicht arg viel schneller werden als die 3080, weil zwischen 3080 und 3090 nur
7-11% liegen. Das ist nix.
Der zusätzliche Speicher ist sicher interessant. Aber es könnten genausogut 12GB sein.
Eben ein 3090 mit halber VRAM-Bestückung.
Beide Varianten haben Ihr Pro:
Die 20GB wäre erst möglich mit den 2GB-Chips, vermutlich aber nur mit 3080-Perf.,
aber die 12GB hätte die größere Speicherbandbreite von der 3090.(obs Was bringt?)
vorbehaltlich
evtl. mehr oder weniger Cores, beim Takt geht ja kaum Was!

Das wäre in Rasterleistung < 6900. Also wozu der Aufwand, ausser Es stellt sich heraus, das in WatchDogs+Marvel etc. die 10GB net reichen.

btw.
Sollte die unwahrscheinliche 3080Ti mit 3x 8pin kommen, dann hat man auch Mehrkosten beim NT.(x)
Da wird NV kaum Was für 950€ + 50€ NT++ rausbringen.
(x) In diesem Highend Szenario hat Igor mit dem "Jedermanns" i9 10900k getestet:
GeForce RTX 3090, RTX 3080 und RTX 3070 mit Core i9-10900K gegen 11x be quiet System Power 9, Pure Power 11, Straight Power 11 und Dark Power Pro 12! | Seite 2 | igor´sLAB
Da kann man dann evtl. bei CB schauen, wieviel weniger W die eigene CPU braucht.
Intel Core i9-10900K und i5-10600K im Test: Leistungsaufnahme, Effizienz, Temperatur und Overclocking - ComputerBase
(I hätte ruhig mal die 3070 mit nem Ryzen 3600 testen können, obs mit 500W Gold Pure reicht.
Immer diese Highendschoße für 0,5% der User ist net sinnvoll, die kaufen/haben eh 850W+Platinum)
 
Zuletzt bearbeitet:
Zurück
Oben