Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
- Ersteller SVΞN
- Erstellt am
- Zur News: AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
F
foo_1337
Gast
RAM mit VRAM verwechselt?FatalFury schrieb:Ich möchte min 20GB haben. Die NextGen kommt jetzt, Godfall (PS5/PC) möchte 8GB für FullHD haben.
2GB sind minimum.
Ergänzung ()
Ist rein nvidiaThorque schrieb:ist das ein reines Nvidia ding? also copyright usw?
FatalFury
Lt. Commander
- Registriert
- Juli 2017
- Beiträge
- 1.172
Nein. 3080 Ti fix kauf, kommt mit 20GB safe.
Und BITTE von TSMC:
https://www.tomshardware.com/news/nvidia-switching-to-tsmc-in-2021
Und BITTE von TSMC:
https://www.tomshardware.com/news/nvidia-switching-to-tsmc-in-2021
Thorque
Commander
- Registriert
- Feb. 2020
- Beiträge
- 2.977
okay also DLSS ist rein nvidia, das heisst es kann sein, dass Spiele Hersteller von nvidia "gefördert" / mit Geld gesponsert / angehalten werden DLSS in ihre Spiele einzubauen bzw ihre Spiele für nvdia Karten zu optimieren? Bzw tipps für Code bekommen um die Spiele für nvidia zu beschleunigen?foo_1337 schrieb:Ist rein nvidia
Zuletzt bearbeitet:
F
foo_1337
Gast
Man weiß es nicht, aber es ist gut vorstellbar. Vielleicht fließt auch kein Geld, da die Spiele auch durch den Marketing Push seitens nvidia profitieren.Thorque schrieb:okay also DLSS ist rein nvidia, das heisst es kann sein, dass Spiele Hersteller von nvidia "gefördert" werden DLSS in ihre Spiele einzubauen bzw ihre Spiele für nvdia Karten zu optimieren?
Ergänzung ()
Wie kommst du auf diese Requirements? Minimum ist ne GTX 960 mit 2GB.FatalFury schrieb:
FatalFury
Lt. Commander
- Registriert
- Juli 2017
- Beiträge
- 1.172
Nein, es ist ein Allgemeiner Trend. Hallo liebe AMDler wacht auf.
https://www.hardwareluxx.de/index.p...n-dlss-alternative-fuer-die-ps5-arbeiten.html
Ja klar, für 720p achte auf:
https://www.wepc.com/benchmark/godfall-system-requirements/
In einer, nicht so sehr kapitalistischen Welt, wäre das Betrug was NV da betreibt.
https://www.hardwareluxx.de/index.p...n-dlss-alternative-fuer-die-ps5-arbeiten.html
Ergänzung ()
foo_1337 schrieb:entfernt
Ja klar, für 720p achte auf:
- Screen Resolution: 720p
https://www.wepc.com/benchmark/godfall-system-requirements/
In einer, nicht so sehr kapitalistischen Welt, wäre das Betrug was NV da betreibt.
Zuletzt bearbeitet von einem Moderator:
F
foo_1337
Gast
Joa, ok. Aber nur weil ne bestimmte Graka vorausgesetzt wird, heißt das ja nicht, dass der VRAM dieser auch ausgenutzt wird. Gibt genug spiele, die für 4k ne 2080ti voraussetzen, dann aber bei 6-8GB rumdümpeln.
Unten schreiben sie ja 2080s für 4k und die hat auch 8GB.
Unten schreiben sie ja 2080s für 4k und die hat auch 8GB.
FatalFury
Lt. Commander
- Registriert
- Juli 2017
- Beiträge
- 1.172
Du redest von der PS4 Zeit, wo die Konsole max 8GB hatte.
Ich kaufe aber keine neue 499,- bis 799,- Graka für die alte PS4/XBOX ONE Gen.
Die neuen Konsolen haben 16GB. Godfall verlangt 8GB für FullHD, dat Game kommt nicht mehr für die PS4.
Ich kaufe aber keine neue 499,- bis 799,- Graka für die alte PS4/XBOX ONE Gen.
Die neuen Konsolen haben 16GB. Godfall verlangt 8GB für FullHD, dat Game kommt nicht mehr für die PS4.
Kann auch gut sein, dass man in allen Spielen mit DX12-Ultimate-Implementierung bald treiberseitig oder auch im Menü DirectML(Machine Learning)-Upscaling aktivieren können wird. Durch die Mitentwicklung der XBox-Plattform hätte man sicher entsprechendes Know-How bei AMD.
Dann hätte die nVidia-exklusive Technik plötzlich eine XBox- und Windows-PC-exklusive Technik zur Konkurrenz, die unabhängig des Herstellers der Grafikkarte läuft. nVidia wäre wieder am Zug ihre Tensor-Kerne stattdessen das berechnen zu lassen oder eben bei den Entwicklern zu betteln ihre Variante zusätzlich zu implementieren.
Ein Gewinn wäre das für die Xbox Series S/X und für die Entwickler, die es mit der DX12-API sowieso mit einbauen. Nicht zu vergessen auch Intel mit ihren kommenden diskreten Grafikkarten. Die werden sicherlich stark lobbyieren, damit so wenig wie möglich proprietäre Technik bei zukünftigen Spielen zum Einsatz kommt und man nicht direkt mit Wettbewerbsnachteilen startet.
Kann mir schwer vorstellen dass sowas NICHT kommt, da die neue Konsolengeneration auf Jahre hinaus 4K-TVs mit Bildern beliefern soll und so über kurz oder lang sicher bissl getrickst werden muss.
Dann hätte die nVidia-exklusive Technik plötzlich eine XBox- und Windows-PC-exklusive Technik zur Konkurrenz, die unabhängig des Herstellers der Grafikkarte läuft. nVidia wäre wieder am Zug ihre Tensor-Kerne stattdessen das berechnen zu lassen oder eben bei den Entwicklern zu betteln ihre Variante zusätzlich zu implementieren.
Ein Gewinn wäre das für die Xbox Series S/X und für die Entwickler, die es mit der DX12-API sowieso mit einbauen. Nicht zu vergessen auch Intel mit ihren kommenden diskreten Grafikkarten. Die werden sicherlich stark lobbyieren, damit so wenig wie möglich proprietäre Technik bei zukünftigen Spielen zum Einsatz kommt und man nicht direkt mit Wettbewerbsnachteilen startet.
Kann mir schwer vorstellen dass sowas NICHT kommt, da die neue Konsolengeneration auf Jahre hinaus 4K-TVs mit Bildern beliefern soll und so über kurz oder lang sicher bissl getrickst werden muss.
rasenschach
Lt. Junior Grade
- Registriert
- Juli 2013
- Beiträge
- 309
AMD wird mit dem BigNavi Refresh auf 5Nm Mitte (eher Ende 2021) ein DLSS Derivat (AI basiert) im Angebot haben - vorher läuft das etwas anders mit einer verbesserten Version (2.0) der bestehenden (aber nicht AI basiert) "Mittel" (CAS, FidelityFX etc.) allerdings nicht auf dem Niveau von DLSS. Aber eben in jedem Spiel ....
Ist doch ganz einfach - willst Du Raytracing mit der max. Performance und Features haben -> Nvidia kaufen!! Da wird man auch 2020 nicht herum kommen, da die AMD Lösung so in etwa auf 3070 Niveau kommen wird (max.). Ist halt die erste Generation.
Solange die Entwickler nicht wie bei Control die normale Version wie ein Spiel von 2010 aussehen lassen ist alles okay - Watchdogs ist halt meh (persönliche Meinung -> lief immer schlecht) bei Cyberpunk sieht das schon anders aus. Prädestiniert für Raytracing Nutzung und extrem gehyped. Ist aber sicher auch ohne Raytracing ein tolles Spiel ... denn darum geht es normalerweise ja. Ein "Scheissspiel" wird nicht besser oder gut durch Raytracing Effekte, die Effekte helfen die Atmosphäre zu unterstützen.
Und das neue Call of Duty hat es in der Kampagne -> DLSS finde ich persönlich schon geil (2080TI Nutzer hier) aber nur in Version 2.0 aufwärts und ich bin einfach ein Freund von offenen Standards - am Ende wird sich auch das durchsetzen, aber im Moment hat AMD noch nichts vergleichbares.
Ach ja das Bios der Karte von AMD ist das der Sapphire Nitro+.....
Ist doch ganz einfach - willst Du Raytracing mit der max. Performance und Features haben -> Nvidia kaufen!! Da wird man auch 2020 nicht herum kommen, da die AMD Lösung so in etwa auf 3070 Niveau kommen wird (max.). Ist halt die erste Generation.
Solange die Entwickler nicht wie bei Control die normale Version wie ein Spiel von 2010 aussehen lassen ist alles okay - Watchdogs ist halt meh (persönliche Meinung -> lief immer schlecht) bei Cyberpunk sieht das schon anders aus. Prädestiniert für Raytracing Nutzung und extrem gehyped. Ist aber sicher auch ohne Raytracing ein tolles Spiel ... denn darum geht es normalerweise ja. Ein "Scheissspiel" wird nicht besser oder gut durch Raytracing Effekte, die Effekte helfen die Atmosphäre zu unterstützen.
Und das neue Call of Duty hat es in der Kampagne -> DLSS finde ich persönlich schon geil (2080TI Nutzer hier) aber nur in Version 2.0 aufwärts und ich bin einfach ein Freund von offenen Standards - am Ende wird sich auch das durchsetzen, aber im Moment hat AMD noch nichts vergleichbares.
Ach ja das Bios der Karte von AMD ist das der Sapphire Nitro+.....
Cpt.Willard
Commander
- Registriert
- Juni 2005
- Beiträge
- 2.358
Tatsächlich wird es Cyberpunk bei mir richten- die 16GB find ich nice.
Die Steigerung auf das 4x der Leistung meiner Rx580 nehm ich gern - aber wenn Cyberpunkt mit mal auf der einen Karte toll und auf der anderen Mau aussieht, wird das auch bei neueren Spielen so sein... ich mach mir nichts vor, wo der Druck dann herkam.
The Way It's Meant To Be Played
Das möchte ich aber nicht unterstützen.
Allerdings muss man sich hier eines vor Augen führen - PS5 und XBox kommen raus und CP sieht scheiße aus? Glaubt auch keiner oder?!
Die Steigerung auf das 4x der Leistung meiner Rx580 nehm ich gern - aber wenn Cyberpunkt mit mal auf der einen Karte toll und auf der anderen Mau aussieht, wird das auch bei neueren Spielen so sein... ich mach mir nichts vor, wo der Druck dann herkam.
The Way It's Meant To Be Played
Das möchte ich aber nicht unterstützen.
Allerdings muss man sich hier eines vor Augen führen - PS5 und XBox kommen raus und CP sieht scheiße aus? Glaubt auch keiner oder?!
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.708
ghecko schrieb:... hoffe die Navi 22 bekommen ... 16GB VRAM. So eine 6700 würde mir gut reinpassen.
Naja, es wurden bisher 12GB kolportiert für die Navy Flounder GPUs, was für auf WQHD ausgerichtete Karten aber dennoch stattlich wäre und längerfristig gut ausreichen dürfte, zumal es mehr ist als bei den High End RTX Ampere Einführungskarten (RTX 3070 und 3080) von nVidia.
xXcanwriterXx
Banned
- Registriert
- Juli 2020
- Beiträge
- 903
Und für mich ist das twice: 8 GB 1070 TiCpt.Willard schrieb:Tatsächlich wird es Cyberpunk bei mir richten- die 16GB find ich nice.
Chismon schrieb:... ,zumal es mehr ist als bei den High End RTX Ampere Einführungskarten (RTX 3070 und 3080) von nVidia.
Wenn Konkurrenz überleben will, muss sie grds. mehr bieten können!!
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 5.931
FatalFury schrieb:Nein. 3080 Ti fix kauf, kommt mit 20GB safe.
Und BITTE von TSMC:
https://www.tomshardware.com/news/nvidia-switching-to-tsmc-in-2021
@FatalFury solange nichts offizielles gesagt wird, ist das nur heisse Luft. Auch wurde im Januar nie behauptet, wie im verlinkten Artikel, dass Ampere früher kommt. Auch hat TomsHW geschrieben, damals, dass TSMC den Löwenanteil von Ampere stemmen wird.... ist nicht so gekommen. Auch dass Ampere weniger Strom verbrauchen sollte als Turing....
wüstenigel schrieb:Naja, Nvidia ist ja auch mit den Preisen wieder in normalere Gegenden runter... Turing war einfach maßlos überteuert.
Moment mal... RTX 3000 hat die Preise nochmal angezogen, oder habe ich etwas verpasst?
2070 499 USD zu 3070 499 USD
2080 699 USD zu 3080 699 USD
2080ti 999 USD zu 3090 1499 USD
A
Adzz
Gast
Wenn Nvidia ihre nächste Generation wirklich schon ende 2021 in 5 nm tmsc bringt kann man ja wieder warten... gut zu wissen wäre ob nvidia schon 5 nm gebucht hat. Die wäre ja nochmals deutlich schneller. Ich kann mir gut vorstellen das die 3080 nur eine Notlösung war und man schon mit der nächsten gen plant.
X
Xtrasmart
Gast
Incident schrieb:Und wo wird AMD als Quelle angegeben, Mr supersmart?
Die Diskussion können wir ja auf den 28.10. verschieben. Und bis dahin lassen wir das "persönlich-werden" hier mal sein, junger Mann. Danke.
Cameron
Lieutenant
- Registriert
- März 2004
- Beiträge
- 956
Meine aktuelle Grafikkarte ist aus 2014, ich warte auf ein Upgrade. 10GB kommen für mich nicht in Frage, weshalb ich mit einer RTX 3090 geliebäugelt habe. Ich hoffe nun, dass die 16GB Karten von AMD nun endlich Nvidia zwingen, auf die 3080 deutlich mehr RAM zu bauen. Auch preislich bin ich äußerst gespannt.
Botcruscher
Captain
- Registriert
- Aug. 2005
- Beiträge
- 3.950
Der Hypetrain macht tut tut... Ganz spezielle Partnermodelle klingt schon mal ganz böse.
mylight schrieb:Solange AMD nicht in die Nähe der 3080 kommt wird NVIDIA sich treiberseitig nicht veranlasst fühlen mehr Leistung in die Spur zu bringen, daher hoffe ich ja auch das AMD NVIDIA schlägt. Momentan sieht es jedoch sehr schlecht aus.
Der Treiber ist dann wohl Nvidias Äquivalent zu Intels Schublade? lol
Sorry, dass ich das jetzt so frei heraus sagen muss, aber man merkt einfach dass du nicht wirklich viel Ahnung in dem Bereich hast.
Man hat doch gesehen, dass die Ampere Karten völlig am Limit laufen. 50W mehr für 4% mehr Leistung. Wenn Nvidia einfach so einen schalter umschalten müsste für deutlich mehr Leistung hätten sie es getan.
Ähnliche Themen
- Antworten
- 93
- Aufrufe
- 28.407
- Antworten
- 1.408
- Aufrufe
- 187.626
- Antworten
- 487
- Aufrufe
- 81.284