Weil vielen 70 - 80 FPS nicht reichen, es müssen 120+ sein.matschei schrieb:Ich verstehe nicht wieso hier bei den Top Grafikkarten manche über dlss nachdenken.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
- Ersteller SVΞN
- Erstellt am
- Zur News: AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.252
foo_1337 schrieb:Auf CPU Basis würde das überhaupt keinen Sinn machen...
Warum denn die PS4 macht dass so da die GNC1.1 kein H/W Upscaling unterstützt die haben dass sogar als Patent an gemeldet.
F
foo_1337
Gast
Schau dir die 3080 Benchmarks mit RTRT DLSS on/off an, dann weißt du wieso.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.913
Stimmt,SKu schrieb:Sollte sich die 6900XT zwischen der 3080 und 3090 leistungsmäßig einordnen, muss sich hier niemand Hoffnung machen, dass die GPU weniger als die 3080 kostet.
Einen Price War mit Nvidia würde AMD nicht lange durchhalten. Ich denke, wie bei Zen.. 100% Der Leistung für 90% der Knete. Und wie du sagtest, der Topp Dog dann wie die Vega 7 als "AMD Founders" alles darunter durch die OEMs, die RX6700 Serie vllt sogar nur durch OEM
GCN hat angerufen und möchte seine Vorurteile wieder haben.. Schau die die Leistung einer RDNA RX5700 an.. Wo kriegt AMD da die Leistung nicht auf die Straße? Und da ist die Display Engine immer noch Buggy.. Wie gut die Leistung nun skaliert, zeigt doch die 5600XT Eindrucksvoll.GroMag schrieb:theoretische Rohleistung..
foo_1337 schrieb:Du kannst ihm auch 24 Kerne geben und er wäre mit einem neuronalen Netz völlig überfordert. Wieviel Latenz willst du denn einbringen? Woher soll denn allein die Bandbreite kommen?
Sorry Bro, aber du hast keine Ahnung wovon du redest... Also bitte, halte dich an die Faktenlage. Alternativ mal Buzzwords wie Tensor Core oder AI rausstreichen und DLSS nochmal verstehen. Ja es ist ist Innovativ, aber es ist nun mitnichten etwas, was nur Nvidia kann. Und DXR wird auch auf Xbox und PS supportet
Und wenn dann freu dich über deine RTX 3080 und lass uns unseren Spaß.. Du bist ja zum Teil Anstrengender, und immer die gleichen Argumente, als ein gewisser SausageCake
Und das will was bedeuten.
Zuletzt bearbeitet:
F
foo_1337
Gast
Du kannst dieses Upscaling keinesfalls mit DLSS vergleichen. Schau dir mal das neue Patent von Sony an (via Translator, ist japanisch)Mcr-King schrieb:Warum denn die PS4 macht dass so da die GNC1.1 kein H/W Upscaling unterstützt die haben dass sogar als Patent an gemeldet.
F
foo_1337
Gast
Ja, die (Checkerboard) ist auch nicht mit DLSS vergleichbar. Wer will den sowas heutzutage haben?Balikon schrieb:@foo_1337 Die Lösung in der PS 4 hat wohl nichts mit neuronalen Netzwerken zu tun.
Die Xbox one X macht übrigen genau das selbe.
Mcr-King schrieb:Dafür gibt es ja noch die RX6700er Alias N22.
Zum Thema Games ja wirklich traurig wie runter gekommen die Industrie ist, anders Positives Beispiel ist und bleibt Sony wenn man sieht was deren Entwickler aus der PS4 gequetscht haben LoU2 und HZD echt klasse.
Ergänzung ()
Ja auf CPU Basis und dass hatte auch schon die PS4 Checker-Board-Rendering jetzt halt nur in VS2.0.
Die 6700 wäre eine Option, wenn Leistung und Verbrauch gut sind. Mit 180 Watt wie bei meiner jetzigen Grafikkarte ist aber wohl auch da nicht mehr zu rechnen.
Man sollte einen Wettbewerb ausloben: der Hersteller, der eine Grafikkarte mit RX6900 / RTX3080 / Schnubbelwupp BM8031 Leistung rausbringt und maximal 180 - 190 Watt verbrät, bekommt gutes Karma, einen Obstkorb und die immerwährende Dankbarkeit der Konsumenten.
Das wäre doch was.
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.252
foo_1337 schrieb:Ja, die (Checkerboard) ist auch nicht mit DLSS vergleichbar. Wer will den sowas heutzutage haben?
Die Xbox one X macht übrigen genau das selbe.
Ähm Kunden die keine 1900€ für eine nicht verfügbare GPU ausgeben möchten und die meisten Gamer sind Konsolen Gamer PC ist da nur neben Sache.
Auch hat selbst Heisse gesagt das CBR von Sony ist dem von MS weit überlegen auch brauchst du dafür keine Unterstützung von NV(DLSS, RTX) die nicht umsonst ist.
Auch wurde dass CBR immer weiter verbessert oder denkst du Sony macht nix.
Wie dem auch sei (DSSL) ist nicht schlecht aber Teuer und und umständlich wie RTX.
Auch war NV nicht AMD der Preis Drücker sondern Sony und MS also AMD indirekt weil immer mehr Leute auf die Konsole Wechseln.
NV sollte lieber mal auf passen dass Samsung ihnen nicht noch Nintendo weg nimmt, nach allem was man so hört.
F
foo_1337
Gast
Für DLSS wird keine 1900€ GPU benötigt. Eine 2070 reicht vollkommen aus um gute Ergebnisse zu erzielenMcr-King schrieb:Ähm Kunden die keine 1900€ für eine nicht verfügbare GPU ausgeben möchten und die meisten Gamer sind Konsolen Gamer PC ist da nur neben Sache.
Ja wenn Heise das sagt... Wo eigentlich? CBR wird nur anfangs auf der PS5 zu sehen sein und dann abgelöst. Das neue Upscaling Verfahren wird dann die GPU dafür nutzen.Mcr-King schrieb:Auch hat selbst Heisse gesagt das CBR von Sony ist dem von MS weit überlegen auch brauchst du dafür keine Unterstützung von NV(DLSS, RTX) die nicht umsonst ist.
DLSS... Und es ist nicht umständlich. Mal selbst benutzt oder zumindest einen Entwickler gefragt? Vermutlich nicht. Und mit RTX meinst du vermutlich RT: Der Dev nutzt hier einfach DXR. Völlig egal, welche Karte der Gamer am Ende nutzt. Der Umstand ist somit für den Entwickler exakt der selbe, egal ob nun nvidia, AMD oder Intel genutzt wird.Mcr-King schrieb:Wie dem auch sei (DSSL) ist nicht schlecht aber Teuer und und umständlich wie RTX.
Wenn du dir die Umsätze von nvidia anschaust, dann siehst du, dass das Tegra Zeugs und insbesondere die Switch nicht so viel vom Gesamtumsatz und insbesondere nicht von der Marge ausmacht. Dass es noch keinen X1 Nachfolger gibt, zeigt wieviel Interesse nVidia daran hat. Automotive ist hier wichtiger.Mcr-King schrieb:NV sollte lieber mal auf passen dass Samsung ihnen nicht noch Nintendo weg nimmt, nach allem was man so hört.
- Registriert
- Mai 2011
- Beiträge
- 21.137
Genau das macht Nvidia gerade mit Ampere, oder wo ist die 2,7fache Rohleistung der 3080 ggü. der 2080 geblieben? Auf der Straße sehe ich sie nicht^^GroMag schrieb:Wird wie immer sein. AMD bringt theoretische Rohleistung, bekommt sie aber nicht "auf die Straße".
MasterAK
Lieutenant
- Registriert
- Dez. 2018
- Beiträge
- 658
@SV3N Danke für die Zusammenfassung der Gerüchte.
Ich glaube, die beste Verfügbarkeit werden die 6800er Karten haben. Am Anfang wird die Ausbeute der 80 CU Chips nicht besonders sein. Aber ich lasse mich da gern überraschen.
So ne 6800XT als Nachfolger meiner RX 580? Das lohnt sich bestimmt. 3 bis 4fache Leistung... das wird lecker.
Ich glaube, die beste Verfügbarkeit werden die 6800er Karten haben. Am Anfang wird die Ausbeute der 80 CU Chips nicht besonders sein. Aber ich lasse mich da gern überraschen.
So ne 6800XT als Nachfolger meiner RX 580? Das lohnt sich bestimmt. 3 bis 4fache Leistung... das wird lecker.
Das kommt wohl auch davon, dass du wohl hart im CPU Limit bist. Die RTX 3080 zieht im Referenzdesign ohne Wenn und Aber 320 W, sofern weder n CPU Limit vorliegt, noch die Framerate künstlich begrenzt wirdmylight schrieb:Btw meine RTX 3080 übersteigt durchschnittlich beim Zocken nichtmal die 200Watt Marke, von daher ist das alles gar nicht so schlimm wie ich zuerst geglaubt habe
- Registriert
- Mai 2011
- Beiträge
- 21.137
Sollte die 6800XT ca doppelt so schnell werden wie die 5700XT, dann wäre das in der Tat ziemlich genau die 4-fache Leistung der RX580MasterAK schrieb:So ne 6800XT als Nachfolger meiner RX 580? Das lohnt sich bestimmt. 3 bis 4fache Leistung... das wird lecker.
mylight
Lt. Commander
- Registriert
- März 2019
- Beiträge
- 1.572
Solange AMD nicht in die Nähe der 3080 kommt wird NVIDIA sich treiberseitig nicht veranlasst fühlen mehr Leistung in die Spur zu bringen, daher hoffe ich ja auch das AMD NVIDIA schlägt. Momentan sieht es jedoch sehr schlecht aus.Taxxor schrieb:Genau das macht Nvidia gerade mit Ampere, oder wo ist die 2,7fache Rohleistung der 3080 ggü. der 2080 geblieben? Auf der Straße sehe ich sie nicht^^
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.913
@Taxxor
Nur würde die 6800XT keine 250USD Kosten
Aber die 6700 könnte spannend werden, mit einer Leistung auf 2080 Niveau für 250€
Schauen wir mal was da kommt..
Aber ich glaube auch nicht so Recht, dass da eine XTX für die Menge kommt.. Wobei Angesichts der BIOS Releases von Nvidia Custom Karten wären selbst 350W nicht mehr schlimm.. Mein TX550M muss aber so oder so ausreichen..
@mylight
Wie soll Nvidia denn mehr Leistung aus dem Treiber Quetschen? Nun bin ich neugierig. Weil Das wäre, dann nahe eines Perpetuum Mobile.. Ich hab den Chip nun auch gesehen und frage mich, wieso zum Heck sollte Nvidia ihn per Software beschneiden und warum hat das noch keiner der BIOS Cracks herausgefunden? Warum brauch es dann Custom Karten, die bis zu 420W Nuckeln?
Nur würde die 6800XT keine 250USD Kosten
Aber die 6700 könnte spannend werden, mit einer Leistung auf 2080 Niveau für 250€
Schauen wir mal was da kommt..
Aber ich glaube auch nicht so Recht, dass da eine XTX für die Menge kommt.. Wobei Angesichts der BIOS Releases von Nvidia Custom Karten wären selbst 350W nicht mehr schlimm.. Mein TX550M muss aber so oder so ausreichen..
@mylight
Wie soll Nvidia denn mehr Leistung aus dem Treiber Quetschen? Nun bin ich neugierig. Weil Das wäre, dann nahe eines Perpetuum Mobile.. Ich hab den Chip nun auch gesehen und frage mich, wieso zum Heck sollte Nvidia ihn per Software beschneiden und warum hat das noch keiner der BIOS Cracks herausgefunden? Warum brauch es dann Custom Karten, die bis zu 420W Nuckeln?
- Registriert
- Mai 2011
- Beiträge
- 21.137
mylight schrieb:Solange AMD nicht in die Nähe der 3080 kommt wird NVIDIA sich treiberseitig nicht veranlasst fühlen mehr Leistung in die Spur zu bringen
Klar, Nvidia hat der 3080 extra nochmal 60W mehr spendiert als der 2080Ti und einen aufwändigen FE Kühler dafür konstruiert, um noch 4% Performance rauszuquetschen, aber später können sie wenn nötig die Leistung ggü der 2080 natürlich per Treiber von 1,7x auf 2,7x erhöhen
mylight
Lt. Commander
- Registriert
- März 2019
- Beiträge
- 1.572
Ich habs jetzt schon mehrmals erlebt das durch Treiber-Updates mehr FPS geliefert wurden. Der treiberseitige Kondensatorfix sollte doch eigentlich alles über die Möglichkeiten aussagen die NVIDIA hätte wenn sie denn unter Zugzwang stehen würden, treiberseitig noch mehr rauszukitzeln ist völlig normal.Taxxor schrieb:Klar, Nvidia hat der 3080 extra nochmal 60W mehr spendiert als der 2080Ti und einen aufwändigen FE Kühler dafür konstruiert, um noch 4% Performance rauszuquetschen, aber später können sie wenn nötig die Leistung ggü der 2080 natürlich per Treiber von 1,7x auf 2,7x erhöhen
Stellt euch einfach mal vor AMD wäre besser und NVIDIA Käufer müssten sich überlegen ihre NVIDIA Karte zu verkaufen um dann ins rote Lager zu wechseln das würde NVIDIA mit Sicherheit nicht passen. Es gibt da schon noch Reserven die angezapft werden können, alles andere wäre für ein Technologieunternehmen das an der SPitze ist nicht würdig genug. Ich denke NVIDIA ist AMD immer ein Schachzug vorraus. Ich sage nicht das man von 1,7x auf 2,7x kommt aber zumindest reicht es um AMD Karten immer ein stückweit vorraus zu sein denke ich.
Ich glaube nicht das NVIDIA all seine guten Karten sofort ausspielt, sondern abwartet bis es den größten Effekt hat.
Ähnliche Themen
- Antworten
- 93
- Aufrufe
- 28.413
- Antworten
- 1.408
- Aufrufe
- 187.628
- Antworten
- 487
- Aufrufe
- 81.284