Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

stevefrogs schrieb:
Die Tatsache, dass keine RT-Benchmarks gezeigt wurden, verheißt nichts Gutes. Rasterizing Leistung dürfte aber echt super sein, wie ich es auch erwartet hatte. Auf DLSS-Konkurrenz ist man leider auch nicht wirklich eingegangen, auch das trübt die Stimmung.

Lustiger Moment: “und all das mit nur 300W” LOL, bis Ampere hätte man dafür noch Schelte bekommen, aber jetzt ist das die neue Realität im High-End. Ich kann damit gut leben, aber manche Foristen hier scheinen ein Problem damit zu haben.
Weiterer Lacher, als man WoW mit Raytracing gezeigt hat, verdammt sieht das Spiel scheiße aus, mit oder ohne RT.

Preise finde ich etwas hoch, unter der Annahme, dass RT und DLSS nicht auf dem gleichen Niveau sein/bzw fehlen werden, aber das ist halt noch nicht ganz gewiss. Sollte man da überraschenderweise doch auf gleichem Niveau spielen, sind die Preise dann doch voll in Ordnung. Bzw für Leute, die nur auf Rasterizing stehen sind die Preise auch fair für das Gebotene.

Bin schon sehr auf den Infinity-Cache in der Praxis gespannt, die Folien verheißen viel, aber ob sich das so einfach in die Realität überträgt, muss sich erst beweisen. Auch bei Vega gab es dicke Balken auf manchen Folien, draus geworden ist dann leider doch nichts (primitive shaders).

Ja ohne DLSS ersatz kauf ich mir keine amd.
 
Müritzer schrieb:
P.S. Die 300 W Angabe bei der RX 6900 XT ist aber sehr optimistisch wenn man bedenkt WIE AMD die Leistungsaufnahme angibt. Werde wohl um die 350 W sein, eher mehr.

Ach ja? WIE geben sie sie denn an?

5700XT: 225W TBP
5700: 180W TBP
5600XT: 150W TBP
5500XT: 130W TBP



Und was verbrauchen die Karten real?

5700XT: 210W
5700: 176W
5600XT: 146W
5500XT: 130W

Die 5500XT ist hier als einzige Karte überhaupt an die TBP Angabe rangekommen, alle anderen lagen leicht darunter.

Screenshot 2020-10-28 233417.png




Oder versuchst du hier irgendwie auf diesen komischen TGP Werten rumzureiten, die Igor auch für seine Rechnungen benutzt hat?
Fakt ist, die TDP ist das was die komplette Karte verbraucht und auch das was AMD offiziell als Angabe benutzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS, eXe777, Nekkepenn und 9 andere
GerryB schrieb:
Die 16+20GB-Varianten sind definitiv nicht mehr in der Entwicklung.(mit anderem PCB etc.)
Können eigentlich nur als Refresh mit 2GB-Modulen kommen, aber wozu,
wenn der Chip schon zu langsam ist.
Wieso, die wird es natürlich nur als Customs geben und dasselbe PCB wie die 3090 haben. Und zu langsam ist der Chip auch nicht. Beide NV Modelle sind nur teilaktiv, dazu sind viele der AMD Herstellerbenches auch best Case ohne zB RT und oft mit Rage Mode und Memory Tweak der nur auf neusten Ryzen geht durchgeführt...

Also zu langsam is was anderes. Eher auf Augenhöhe.

Und auch das weiß man erst mit dem Test später im November.
 
  • Gefällt mir
Reaktionen: Esenel
oeMMes schrieb:
......- bei der Wettbewerbssituation in dem Bereich - sicherlich nicht schlecht.
Vergleiche doch einfach die Quartalszahlen von Nvidia seit Fermi bis heute.
Umsatz, Gewinn, Margen, sind da immer gut aufgeschlüsselt, nach Sparten.
Wenn R&D so ein großes Problem für Nvidia wäre, müsste Umsatz, Gewinn, aber besonders die Margen in der Geforce-Sparte sinken. Aber es ist genau umgedreht.....

Bei Nvidia hat man sich übrigens für Samsungs 8nm Prozess entschieden, weil dass viel günstiger ist als TSMCs 7nm. Das hat ein Nvidia-Mitarbeiter auch ganz offen im Reddit-Interview beim Ampere-Release zugegeben.

So kann man die GPUs etwas günstiger verkaufen als bei Turing, und trotzdem die fetten Margen halten.
Also Win Win für Endkunden und Shareholder.
 
  • Gefällt mir
Reaktionen: Haldi
xXcanwriterXx schrieb:
Okay :schluck:
Sorry, ich hatte aber auch heute schon echt einen miesen Tag hinter mir. Erst Ausfall der Heizung, dann Rasenmäher kaput, und, und, und. :D

Ich warte jetzt erstmal die diversen Tests ab, aber eine 6800XT würde mir wohl auch reichen und da passen die 750 W wieder.

Alles gut und sorry!! :)

Kein Problem, kommt mir bekannt vor, bei mir Tropft es auch grad am Rollladenkasten ins Haus :D , war vorhin auch ein wenig unter Strom, das Problem ist hier wird so viel .....geschrieben ala "Fanboy", anstatt sich einfach zu Freuen das AMD mal wieder tolle Karten bringt, wir haben alle was davon!

Aber freut mich, das du Rückgrat zeigst, gibt es hier leider sehr selten, die meisten kennen nur "Melden" und ich hab dann immer die PN BOX von den Mods voll weil manche sich wie Kinder verhalten den man den Lolli Klaut nur weil man mal nen anderen Ton anschlägt!

Aber nix für ungut wünsche dir noch nen angenehmen Abend und Viel Spaß mit dem Neuen System dann:hammer_alt:

Gruß
 
  • Gefällt mir
Reaktionen: mc_ace, DrFreaK666 und xXcanwriterXx
Müritzer schrieb:
P.S. Die 300 W Angabe bei der RX 6900 XT ist aber sehr optimistisch wenn man bedenkt WIE AMD die Leistungsaufnahme angibt. Werde wohl um die 350 W sein, eher mehr.
AMD selbst gibt immer die TBP an und die wird genauso strikt eingehalten wie z.B. die 320/350W TGP der 3080/3090. Die 300W sind also auch real 300W.
 
  • Gefällt mir
Reaktionen: LukS, GerryB, BlackRain85 und eine weitere Person
Ich zitiere mich einfach mal selbst aus früheren Threads.

Ernie75 schrieb:
Ich gehe einfach davon aus, daß NVidia genau weiss, was von AMD kommen wird. Die erste Tranche der 3080 ist verkauft, AMD wird natürlich demnächst auch mit mehr Infos seiner Karten kommen und eventuell leistungsmässig in einigen Bereichen durchaus konkurrenzfähig sein.

Was jedoch sein kann ist, daß AMD on der Speichermenge her mit seinem Angebot näher am Sweetspot der Kunden liegt, als die jetzige 3080.

Zugegeben, etwas Spekulation, aber würde rein logischvöllig ins Bild passen, was die Reihenfolge und den zeitlichen Ablauf der Meldungen angeht.

Und

Ernie75 schrieb:
Wenn man sich das Gesamtbild anschaut, bekommt das alles eine Logik. Ich bin wenig überrascht, denn welchen Grund hätte es geben sollen, daß NVidia
a) mit solchen Preisen und
b) zu diesem Zeitpunkt und dann mit solch rudimentärer Verfügbarkeit kommt.

Das sieht mir durchaus wie ein Versuch aus, einen kleinen zeitlichen Vorsprung zu gewinnen.

Und wie ich im anderen Thread bereits sagte, beide Konkurrenten wissen zu 90%, was in den Pipelines des jeweils anderen vorgeht und was in der nächsten Zeit kommen wird.

Auch wenn am Ende featurebereinigt in etwa die gleiche Leistung wie bei den Karten von NVidia steht, ist das für den Energieverbrauch weniger wirklich gut.
Edit: Alter, für ne NVidia-Custom-Karte wurde gerade ein 500W BIOS (Ja, ich weiss, Extremübertakter usw. Blabla) rausgehauen und AMD holt die Stockleistung dieser Karten mit 300W TBP (angeblich). Und das Ganze noch für hunderte Dollar UVP weniger. Bäm. In. Your. Face.

Und wenn es bei mir dann eine neue Graka wird, wird es wohl die kleinste Variante. Einfach aus Budgetgründen.

Habe ich das in der Präsentation richtig gehört, oder wurde da auch etwas von Headroom zum Übertakten geredet?

Jetzt ergibt jedenfalls der komplette Ablauf vom NVidia-Launch bis hin zur Absage der 3080 mit 20GB einen Sinn. Das würde dann wohl preislich vorn und hinten nicht mehr passen.

Ich bin tatsächlich beindruckt. Die nächste Bestellung Popcorn ist jedenfalls getätigt und ansonsten jetzt eben sparen auf ne neue Karte.
Ökosystem AMD scheint jetzt auch wirklich einen Vorteil zu bieten.
Spannend. Geiler Film. 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mylight und surtic
Ano_Dezimal schrieb:
Der Großteil der Gamer kauft tatsächlich noch Intel CPUs. Und da muss dann halt gezeigt werden was am Ende rumkommt.
der name ist wohl programm? bei dir ist wohl etwas vorbei gefahren ohne dass du es gemerkt hast.
 
  • Gefällt mir
Reaktionen: russianinvasion und SirSilent
Ernie75 schrieb:
Habe ich das in der Präsentation richtig gehört, oder wurde da auch etwas von Headroom zum Übertakten geredet?
In der Präsentation selbst hab ich jetzt ncihts gehört, aber die Taktraten von AIB Karten sind ja schon eine Zeit lang im Umlauf, da sollten tatsächlich 2,3GHz im Schnitt möglich sein, was einfahc nochmal 15% mehr im Vergleich zum heute angegebenen Game Clock wäre und auch über dem Referenz gesetzten Boost Clock liegt.

Also wer das Netzteil und die Kühlung hat, kann durchstarten, ich würde mir eher eine 6800XT holen und sie auf 275W begrenzen, dann ein wenig UV dazu, um die Leistung wieder mindestens aufs gleiche Niveau zu heben und fertig.
 
  • Gefällt mir
Reaktionen: GerryB, Onkel Föhn und Ernie75
matty2580 schrieb:
Vergleiche doch einfach die Quartalszahlen von Nvidia seit Fermi bis heute.
Das ist mir zuviel Arbeit. Bei Fermi war nvidia ja im Vergleich noch ne Bretterbude und das Jensen ein Aasgeier ist, bestreite ich ja gar nicht, aber diese Aktionäre sind auch ein lästiges Volk, wenn der Profit runtergeht.

Werden wir nächstes Jahr wohl sehen, wenn AMD so abliefert wie heute präsentiert. ;)
 
matty2580 schrieb:
Bei Nvidia hat man sich übrigens für Samsungs 8nm Prozess entschieden, weil dass viel günstiger ist als TSMCs 7nm. Das hat ein Nvidia-Mitarbeiter auch ganz offen im Reddit-Interview beim Ampere-Release zugegeben.
Für einen Link wäre ich dankbar...
 
IBISXI schrieb:
Auch mal einen Blick auf die Speicherausstattung geworfen?
Mydgard schrieb:
Ähem 8 vs 16 GB VRAM? Doppelter Speicher = Mehrkosten, ist doch klar wie Kloßbrühe :D

Ich habe in der Tat aus dem Blick verloren, dass die RTX 3070 nur mit 8GB daher kommt. Danke für den Hinweis.
 
  • Gefällt mir
Reaktionen: Mydgard
Hallo zusammen,

@ GerryB
GerryB schrieb:
Sein Taschenrechner war bzgl. der 6800 vollkommen daneben. (Absicht?)
Das hätte ich schon gerne etwas näher Erläutert. Denn tatsächlich entspricht seine Prognostizierung ziemlich ähnlich dem, was AMD propagiert hat. Und seit Erscheinen von Ryzen kann man sich bei den AMD-eigenen Prognostizierungen ziemlich treffsicher darauf verlassen, daß sie auch in der Realität bei den Kunden genauso bzw. zumindest weitgehend so eintreffen.

Im Gegensatz zu manch anderen Firmen kann man sich auf AMD da mittlerweile beinahe Blind verlassen. Die eigens propagierten Werte stellen sich zuverlässigst nicht als Phantastereien heraus, im Gegensatz zu manch anderem Mit-Wettbewerber im CPU-Bereich.
GerryB schrieb:
Würde mich net wundern, wenn Er den Verkauf der 3070 puschen sollte.
Also Sorry, das ist völlig absurd, was du hier für Phantastereien aufstellst. Anders kann ich das nicht Nennen. Tatsächlich nimmt der Kollege Wallossek keinerlei Rücksicht auf Freund und Feind in seinen Tests, schonmal gar keine Rücksicht auf irgendeine Farben egal welcher Colheur.

Im deutschen Raum gibt es im Großen und Ganzen niemand, der die Dinge in seinen Tests so tiefgehend beleuchtet wie er es tut. Das ist einfach so. Deine Aussagen hier empfinde ich daher in dem Kontext als Frechheit und Respektlos.

So long...
 
  • Gefällt mir
Reaktionen: Max007
matty2580 schrieb:
Bei Nvidia hat man sich übrigens für Samsungs 8nm Prozess entschieden, weil dass viel günstiger ist als TSMCs 7nm.
Wohl eher, weil TSMC die Hütte so voll hatte, dass für die Menge kein Platz mehr war.
 
Als Rx 5700 XT user bin ich jetzt nicht begeistert. Glaubt mir ich weiß worüber ich spreche :D. Die amd Treiber sind einfach nur müll.

Ich hab einfach keine Lust mehr auf diese Rote Geschichten. Und die wo jetzt kommen Blabla bei mir läuft es einwandfrei Blabla...

Kauft mal schön die Rx 6xxxx damit ich mir endlich eine 3080 kaufen kann 😬😬😉
 
  • Gefällt mir
Reaktionen: Ctrl
Heute eine 850w Seasonic PSU bestellt. Bin dennoch etwas enttäuscht von der 6800 non xt.. Die Werte passen, aber beim Preis hatte ich auf ~499€ gehofft (RTX3070).
Jetzt überlege ich mir die nächsten Tage ganz genau was es denn nun wird.. 3070, 6800 oder doch 6800 XT? Meine Taktik ist jetzt erstmal abwarten, was die AIBs da fabrizieren und wie direkte Vergleiche ausfallen.
 
  • Gefällt mir
Reaktionen: bugmum
Ich denke je nachdem wie gut AMD der Fülle an CU auslasten kann wird der Takt bei den neuen Serien auch sehr stark schwanken, von Titel zu Titel und auch innerhalb des Spiels. AMD spielt der höhere Maximaltakt gerade auch bei kleineren Auflösungen in die Hände. Wenn die Kerne nicht so gut ausgelastet sind kann der Takt hochgefahren werden, das Power Budget also auch bei Teilauslastung der CU genutzt werden.
 
  • Gefällt mir
Reaktionen: GerryB
@Linmoum
@Taxxor


Wir werden das alles ja bei den Tests sehen. Bin schon sehr gespannt darauf. Hoffentlich werden dann von AMD zeitnah die kleineren Karten nachgeliefert. Igor hat aber schon eine gehörige Portion an Wissen was das betrifft.

Oh Mann warum müssen die auch alle gleichzeitig die Sachen rausschmeißen. Da weiß man gar nicht wo man anfangen soll aufzurüsten, gerade bei mir mit so vielen Baustellen.
 
@eQui
Ich habe zwar noch kein Netzteil bestellt, aber der Preis lässt mich auchschwanken. Für 500€ wäre es klar die RX5800 geworden, jetzt bin ich wieder am schwanken und werde nach den Tests überlegen was es wird. Dank Cyberpunk Verschiebung habe ich ja etwas mehr Zeit.
 
Habe mir vor ein paar Jahren ein g-sync Monitor gekauft, weil ich Nvidia habe. Nun kann ich mir ja keine AMD kaufen, schade, weil keine lust auf einen neuen Monitor.
 
Zurück
Oben