News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost

matschei schrieb:
Ich verstehe nicht wieso hier bei den Top Grafikkarten manche über dlss nachdenken.
Weil vielen 70 - 80 FPS nicht reichen, es müssen 120+ sein.
 
foo_1337 schrieb:
Auf CPU Basis würde das überhaupt keinen Sinn machen...

Warum denn die PS4 macht dass so da die GNC1.1 kein H/W Upscaling unterstützt die haben dass sogar als Patent an gemeldet.
 
Wird wie immer sein. AMD bringt theoretische Rohleistung, bekommt sie aber nicht "auf die Straße".
 
SKu schrieb:
Sollte sich die 6900XT zwischen der 3080 und 3090 leistungsmäßig einordnen, muss sich hier niemand Hoffnung machen, dass die GPU weniger als die 3080 kostet.
Stimmt,
Einen Price War mit Nvidia würde AMD nicht lange durchhalten. Ich denke, wie bei Zen.. 100% Der Leistung für 90% der Knete. Und wie du sagtest, der Topp Dog dann wie die Vega 7 als "AMD Founders" alles darunter durch die OEMs, die RX6700 Serie vllt sogar nur durch OEM

GroMag schrieb:
theoretische Rohleistung..
GCN hat angerufen und möchte seine Vorurteile wieder haben.. Schau die die Leistung einer RDNA RX5700 an.. Wo kriegt AMD da die Leistung nicht auf die Straße? Und da ist die Display Engine immer noch Buggy.. Wie gut die Leistung nun skaliert, zeigt doch die 5600XT Eindrucksvoll.

foo_1337 schrieb:
Du kannst ihm auch 24 Kerne geben und er wäre mit einem neuronalen Netz völlig überfordert. Wieviel Latenz willst du denn einbringen? Woher soll denn allein die Bandbreite kommen?

Sorry Bro, aber du hast keine Ahnung wovon du redest... Also bitte, halte dich an die Faktenlage. Alternativ mal Buzzwords wie Tensor Core oder AI rausstreichen und DLSS nochmal verstehen. Ja es ist ist Innovativ, aber es ist nun mitnichten etwas, was nur Nvidia kann. Und DXR wird auch auf Xbox und PS supportet ;)
Und wenn dann freu dich über deine RTX 3080 und lass uns unseren Spaß.. Du bist ja zum Teil Anstrengender, und immer die gleichen Argumente, als ein gewisser SausageCake :o
Und das will was bedeuten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran, Taxxor und Peacemaker1337
Mcr-King schrieb:
Warum denn die PS4 macht dass so da die GNC1.1 kein H/W Upscaling unterstützt die haben dass sogar als Patent an gemeldet.
Du kannst dieses Upscaling keinesfalls mit DLSS vergleichen. Schau dir mal das neue Patent von Sony an (via Translator, ist japanisch)
 
@foo_1337 Die Lösung in der PS 4 hat wohl nichts mit neuronalen Netzwerken zu tun.
 
Mcr-King schrieb:
Dafür gibt es ja noch die RX6700er Alias N22.

Zum Thema Games ja wirklich traurig wie runter gekommen die Industrie ist, anders Positives Beispiel ist und bleibt Sony wenn man sieht was deren Entwickler aus der PS4 gequetscht haben LoU2 und HZD echt klasse.
Ergänzung ()



Ja auf CPU Basis und dass hatte auch schon die PS4 Checker-Board-Rendering jetzt halt nur in VS2.0.

Die 6700 wäre eine Option, wenn Leistung und Verbrauch gut sind. Mit 180 Watt wie bei meiner jetzigen Grafikkarte ist aber wohl auch da nicht mehr zu rechnen.

Man sollte einen Wettbewerb ausloben: der Hersteller, der eine Grafikkarte mit RX6900 / RTX3080 / Schnubbelwupp BM8031 Leistung rausbringt und maximal 180 - 190 Watt verbrät, bekommt gutes Karma, einen Obstkorb und die immerwährende Dankbarkeit der Konsumenten.

Das wäre doch was.
 
  • Gefällt mir
Reaktionen: Mcr-King
foo_1337 schrieb:
Ja, die (Checkerboard) ist auch nicht mit DLSS vergleichbar. Wer will den sowas heutzutage haben?
Die Xbox one X macht übrigen genau das selbe.

Ähm Kunden die keine 1900€ für eine nicht verfügbare GPU ausgeben möchten und die meisten Gamer sind Konsolen Gamer PC ist da nur neben Sache.

Auch hat selbst Heisse gesagt das CBR von Sony ist dem von MS weit überlegen auch brauchst du dafür keine Unterstützung von NV(DLSS, RTX) die nicht umsonst ist.

Auch wurde dass CBR immer weiter verbessert oder denkst du Sony macht nix.

Wie dem auch sei (DSSL) ist nicht schlecht aber Teuer und und umständlich wie RTX.

Auch war NV nicht AMD der Preis Drücker sondern Sony und MS also AMD indirekt weil immer mehr Leute auf die Konsole Wechseln.

NV sollte lieber mal auf passen dass Samsung ihnen nicht noch Nintendo weg nimmt, nach allem was man so hört.
 
Mcr-King schrieb:
Ähm Kunden die keine 1900€ für eine nicht verfügbare GPU ausgeben möchten und die meisten Gamer sind Konsolen Gamer PC ist da nur neben Sache.
Für DLSS wird keine 1900€ GPU benötigt. Eine 2070 reicht vollkommen aus um gute Ergebnisse zu erzielen

Mcr-King schrieb:
Auch hat selbst Heisse gesagt das CBR von Sony ist dem von MS weit überlegen auch brauchst du dafür keine Unterstützung von NV(DLSS, RTX) die nicht umsonst ist.
Ja wenn Heise das sagt... Wo eigentlich? CBR wird nur anfangs auf der PS5 zu sehen sein und dann abgelöst. Das neue Upscaling Verfahren wird dann die GPU dafür nutzen.
Mcr-King schrieb:
Wie dem auch sei (DSSL) ist nicht schlecht aber Teuer und und umständlich wie RTX.
DLSS... Und es ist nicht umständlich. Mal selbst benutzt oder zumindest einen Entwickler gefragt? Vermutlich nicht. Und mit RTX meinst du vermutlich RT: Der Dev nutzt hier einfach DXR. Völlig egal, welche Karte der Gamer am Ende nutzt. Der Umstand ist somit für den Entwickler exakt der selbe, egal ob nun nvidia, AMD oder Intel genutzt wird.


Mcr-King schrieb:
NV sollte lieber mal auf passen dass Samsung ihnen nicht noch Nintendo weg nimmt, nach allem was man so hört.
Wenn du dir die Umsätze von nvidia anschaust, dann siehst du, dass das Tegra Zeugs und insbesondere die Switch nicht so viel vom Gesamtumsatz und insbesondere nicht von der Marge ausmacht. Dass es noch keinen X1 Nachfolger gibt, zeigt wieviel Interesse nVidia daran hat. Automotive ist hier wichtiger.
 
  • Gefällt mir
Reaktionen: Taxxor
GroMag schrieb:
Wird wie immer sein. AMD bringt theoretische Rohleistung, bekommt sie aber nicht "auf die Straße".
Genau das macht Nvidia gerade mit Ampere, oder wo ist die 2,7fache Rohleistung der 3080 ggü. der 2080 geblieben? Auf der Straße sehe ich sie nicht^^
 
  • Gefällt mir
Reaktionen: eXe777, karl_laschnikow, BurgbachJ und 5 andere
@SV3N Danke für die Zusammenfassung der Gerüchte.
Ich glaube, die beste Verfügbarkeit werden die 6800er Karten haben. Am Anfang wird die Ausbeute der 80 CU Chips nicht besonders sein. Aber ich lasse mich da gern überraschen.
So ne 6800XT als Nachfolger meiner RX 580? Das lohnt sich bestimmt. 3 bis 4fache Leistung... das wird lecker.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
mylight schrieb:
Btw meine RTX 3080 übersteigt durchschnittlich beim Zocken nichtmal die 200Watt Marke, von daher ist das alles gar nicht so schlimm wie ich zuerst geglaubt habe ;)
Das kommt wohl auch davon, dass du wohl hart im CPU Limit bist. Die RTX 3080 zieht im Referenzdesign ohne Wenn und Aber 320 W, sofern weder n CPU Limit vorliegt, noch die Framerate künstlich begrenzt wird
 
  • Gefällt mir
Reaktionen: DF86, LukS, Mcr-King und eine weitere Person
MasterAK schrieb:
So ne 6800XT als Nachfolger meiner RX 580? Das lohnt sich bestimmt. 3 bis 4fache Leistung... das wird lecker.
Sollte die 6800XT ca doppelt so schnell werden wie die 5700XT, dann wäre das in der Tat ziemlich genau die 4-fache Leistung der RX580
 
  • Gefällt mir
Reaktionen: Mcr-King und MasterAK
Taxxor schrieb:
Genau das macht Nvidia gerade mit Ampere, oder wo ist die 2,7fache Rohleistung der 3080 ggü. der 2080 geblieben? Auf der Straße sehe ich sie nicht^^
Solange AMD nicht in die Nähe der 3080 kommt wird NVIDIA sich treiberseitig nicht veranlasst fühlen mehr Leistung in die Spur zu bringen, daher hoffe ich ja auch das AMD NVIDIA schlägt. Momentan sieht es jedoch sehr schlecht aus.
 
@Taxxor
Nur würde die 6800XT keine 250USD Kosten :(

Aber die 6700 könnte spannend werden, mit einer Leistung auf 2080 Niveau für 250€

Schauen wir mal was da kommt..
Aber ich glaube auch nicht so Recht, dass da eine XTX für die Menge kommt.. Wobei Angesichts der BIOS Releases von Nvidia Custom Karten wären selbst 350W nicht mehr schlimm.. Mein TX550M muss aber so oder so ausreichen..

@mylight
Wie soll Nvidia denn mehr Leistung aus dem Treiber Quetschen? Nun bin ich neugierig. Weil Das wäre, dann nahe eines Perpetuum Mobile.. Ich hab den Chip nun auch gesehen und frage mich, wieso zum Heck sollte Nvidia ihn per Software beschneiden und warum hat das noch keiner der BIOS Cracks herausgefunden? Warum brauch es dann Custom Karten, die bis zu 420W Nuckeln?
 
  • Gefällt mir
Reaktionen: foo_1337
mylight schrieb:
Solange AMD nicht in die Nähe der 3080 kommt wird NVIDIA sich treiberseitig nicht veranlasst fühlen mehr Leistung in die Spur zu bringen

Klar, Nvidia hat der 3080 extra nochmal 60W mehr spendiert als der 2080Ti und einen aufwändigen FE Kühler dafür konstruiert, um noch 4% Performance rauszuquetschen, aber später können sie wenn nötig die Leistung ggü der 2080 natürlich per Treiber von 1,7x auf 2,7x erhöhen
 
  • Gefällt mir
Reaktionen: GINAC, eXe777, ThePlayer und 8 andere
Taxxor schrieb:
Klar, Nvidia hat der 3080 extra nochmal 60W mehr spendiert als der 2080Ti und einen aufwändigen FE Kühler dafür konstruiert, um noch 4% Performance rauszuquetschen, aber später können sie wenn nötig die Leistung ggü der 2080 natürlich per Treiber von 1,7x auf 2,7x erhöhen
Ich habs jetzt schon mehrmals erlebt das durch Treiber-Updates mehr FPS geliefert wurden. Der treiberseitige Kondensatorfix sollte doch eigentlich alles über die Möglichkeiten aussagen die NVIDIA hätte wenn sie denn unter Zugzwang stehen würden, treiberseitig noch mehr rauszukitzeln ist völlig normal.

Stellt euch einfach mal vor AMD wäre besser und NVIDIA Käufer müssten sich überlegen ihre NVIDIA Karte zu verkaufen um dann ins rote Lager zu wechseln das würde NVIDIA mit Sicherheit nicht passen. Es gibt da schon noch Reserven die angezapft werden können, alles andere wäre für ein Technologieunternehmen das an der SPitze ist nicht würdig genug. Ich denke NVIDIA ist AMD immer ein Schachzug vorraus. Ich sage nicht das man von 1,7x auf 2,7x kommt aber zumindest reicht es um AMD Karten immer ein stückweit vorraus zu sein denke ich.

Ich glaube nicht das NVIDIA all seine guten Karten sofort ausspielt, sondern abwartet bis es den größten Effekt hat.
 
Jetzt gehts los, die Ära der 4k-Karten beginnt =D

Wird wohl nicht mehr lange dauern, bis solche Effizienzmonster wie GTX1000 oder GTX1600 dabei rumkommen.
 
Zurück
Oben