Unterstützt NV nicht mittlerweile Freesync? Seid Freesync 2 ist doch alles Open Sourceedenjung schrieb:BTW: bin ich der einzige Hier der nen WQHD Monitor der freesync hat mit einer Nvidia graka gepaart hat?
Klar die 980ti unterstützt das nicht, darum wäre es wohl eine AMd karte geworden (ich weiß die neueren nvidia gpus unterstützen endlich freesync).
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs
- Ersteller Wolfgang
- Erstellt am
- Zur News: Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs
Wie bitte? Die alten AMD Karten waren in der Tat laut. Die RX xxx Modelle sind es vielleicht auch noch. Bei einem guten Kühlkonzept dürfte sich das aber auch in Grenzen halten.PHuV schrieb:Weil sie seit einer Weile immer langsamer und lauter als Nvidia Karten sind. Ich hatte auch schon AMD Karten, als sie noch konkurrenzfähig warten, war ok, auch mit dem Treiber. Selbst für den Kinder-PC war wegen 8 GB eine AMD gut, aber doch dann letztlich zu laut, und ich mußte damals dafür extra ein neues Netzteil für den Kinder-PC kaufen, weil ein gutes 500 W von beQuiet nicht mehr reichte.
Und wer HighEnd will, findet bei AMD leider bisher keine Alternative.
Ich habe eine RX Vega 56 (Sapphire Nitro) die bekanntlich alles andere als Kühl ist. Im Desktop betrieb hört man sie gar nicht weil die Lüfter bei <30°C nicht drehen und auch bei Vollast ist die Karte nicht wirklich laut! Wie es bei den 5xxx Modellen ist kann ich natürlich nicht sagen.
Es kommt aber auch auf das Kühlkonzept an. Wer das billigste vom billigen kauft darf auch kein optimiertes Kühlkonzept erwarten.
edenjung
Admiral
- Registriert
- Dez. 2014
- Beiträge
- 9.164
erst ab der 10xxx reihe. nicht die 9xx reihe.Ebu85 schrieb:Unterstützt NV nicht mittlerweile Freesync? Seid Freesync 2 ist doch alles Open Source
Balikon
Captain
- Registriert
- Juni 2008
- Beiträge
- 3.476
Aber auch nur, weil die Exotenstatus hat. Vom Teller reißt Du damit nix mehr.Shoryuken94 schrieb:eine Furx X für um die 140-200€.
AMD hat mit RDNA1 noch eine Mischung aus GCN und RDNA, wurde auch immer wieder so gesagt. RDNA2 ist eigentlich die vollendet Version. Ich bin gespannt, so recht vorstellen kann ich mir auch noch nicht, dass sie die wirklich Optimal ausgelastet bekommenZeroStrat schrieb:Davon bin ich noch nicht überzeugt, also dass damit problemlos 80 CUs befeuert werden können. Außerdem, warum hat AMD dann nur so verhältnismäßig kleine Chips mit RDNA 1 umgesetzt?
tstorm
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.893
DavidG schrieb:Das stimmt zwar, aber mit Ryzen 2 haben sie auch nach 15 Jahren die Kurve gekriegt. Also abschreiben würde ich das nicht.
Das ist korrekt, hoch anzurechnen und wirklich toll.
Allerdings kann man die Situation hier nicht ganz vergleichen. Intel hat sich auf seinem Vorsprung und der Marktmacht ausgeruht und nur jährliche Aufgüsse mit homeopathischen Dosen an Mehrleistung gebracht.
Nvidia bringt weiterhin mit jeder Generation spürbare Leistungszuwächse. Hier dürfte es also deutlich schwieriger fallen wieder anzuschließen. Aber ich hoffe das Beste und würde mir sehr gerne wieder eine AMD Karte verbauen und diese nicht immer nur anderen Leuten, die etwas in der Mittelklasse suchen, empfehlen - während mir selbst keine Alternative zu Nvidia zur Verfügung steht.
quakegott schrieb:Das ist ja alles schön und gut das sich hier wieder ein verbaler Schlagaustausch anbahnt. Und am ende haben die meisten doch eine Mittelkasse Karte im Rechner und keine Big Navi oder RTX3080ti. Aber wer für eine Graka 1000€ und mehr auf den Tisch legt dem ist auch nicht mehr zu helfen...
Wer sich ein Auto über 30.000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich ein Haus über 150.000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich eine Kaffeemaschine über 100€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich einen Fernseher über 1000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich eine Küche über 5000€ zulegt dem ist auch nicht mehr zu helfen...
Willst du wieder übernehmen? Mir fallen kaum noch weitere blöde Aussagen dieser Art ein.
canada schrieb:Es wird Zeit für eine neue Radeon 9700! Damit man endlich mit einer nV mal den Boden wischen kann und die nicht ganz die halt zur Erde verlieren und abheben ...
Boden wischen? Sehr erwachsen...!
modena.ch schrieb:Schon Navi 10 (RDNA1) mit nur 2560 Shadern liegt bei der 2070S, da ist ne 2080 nicht sooo viel schneller.
Und schon RDNA1 liegt pro Takt und Shader bei Turing. (eher noch n Müh besser)
...
Ich würd eher mit 70-90% rechnen.
Schon ein doppelter RDNA1 Navi 10 Chip wäre 50% schneller gewesen.
70-90% schneller als der High-End Chip der aktuellen Generation? Ein schöner Traum, m.M.n. aber reine Fantasterei. Das wäre eine historische Entwicklung... klar, würde ich mitnehmen - halte ich aber für ausgesprochen unrealistisch.
Zuletzt bearbeitet:
Es wird Zeit für eine neue Radeon 9700! Damit man endlich mit einer nV mal den Boden wischen kann und die nicht ganz die halt zur Erde verlieren und abheben ...GUN2504 schrieb:Du vergisst die R9 290x, welche locker mit der damaligen Konkurrenz 780ti mithalten konnte und später sogar überholt hat.
Also AMD, bitte wieder eine 5850 oder R9 290x
Mhm, der Treiber meiner nV Gurke schmiert auch gerne mal ab, ich glaube da nehmen sich beide nicht viel, aufgrund der millionen Rechner Konstellationen wird es da nie 100% fehlerfrei geben.Summerbreeze schrieb:Nö, wieso?
Den haben sie sich auch ehrlich verdient. Wenn nach über einem Jahr immer noch vereinzelt Blackscreens und div. Fehler im Treiber auftauchen / nicht behoben wurden, brauchen sie sich über Spott nicht beklagen.
cruse schrieb:Radeon rtx 3080 ai
Glaub ich eher weniger. 2080ti-Leistung maximal.
"50% drüber" - in ein paar Jahren vielleicht....
Schon Navi 10 (RDNA1) mit nur 2560 Shadern liegt bei der 2070S, da ist ne 2080 nicht sooo viel schneller.
Und schon RDNA1 liegt pro Takt und Shader bei Turing. (eher noch n Müh besser)
Big Navi ist ne überarbeitete Arch (RDNA2), die mehr IPC, mehr Takt bekommen soll, das massiv breitere Speicherinterface und wohl auch schnellere Module oder gar HBM (also deutlich mehr Bandbreite),
dazu doppelt so viele Shader (5120). Der Chip ist viel grösser und muss entsprechend liefern, sonst ist es
reine Verschwendung von Platz im teuren 7NM Verfahren.
50% mehr als ne 2080er wäre das absolute Minimum für den grossen Navi.
Ich würd eher mit 70-90% rechnen.
Schon ein doppelter RDNA1 Navi 10 Chip wäre 50% schneller gewesen.
Ergänzung ()
ZeroStrat schrieb:warum hat AMD dann nur so verhältnismäßig kleine Chips mit RDNA 1 umgesetzt?
7NM Kapazität, was sonst?
Warum wohl hat NV nix oder kaum was bekommen?
Weil nix frei ist.
@Summerbreeze
Meine GTX1080 verliert öfters mal den HDMI Audio Ausgang, dann kann ich den Treiber reparieren oder neu installieren und nach einem Neustart ist der Audioausgang wieder da.
Auch bei Grün ist der Treiber nicht immer perfekt.
Zuletzt bearbeitet:
Balikon
Captain
- Registriert
- Juni 2008
- Beiträge
- 3.476
GERmaximus schrieb:Du erwartest eine Highend GPU für maximal 500€?
sdo" schrieb:Wo sag ich das?
Da sagst Du das.sdo schrieb:Ich will 60 CUs für max. 300€ und 76/80 für max. 500€.
MadMaxx87
Ensign
- Registriert
- Jan. 2017
- Beiträge
- 190
Stunrise schrieb:Hoffen wir mal, dass AMD diesmal liefert - die Specs lesen sich ja außerordentlich gut. Es würde mich freuen, wenn ich für meine künftige Nvidia Ampere Grafikkarte nicht unnötig viel bezahlen muss, nur weil es keine Konkurrenz gibt. Ich bin froh um jede gute AMD Karte und um jeden Käufer einer solchen
Ohje diese Aussage ist auf soviele Arten traurig. 😅
Wie Marktwirtschaft funktioniert weißt du auch oder? Ansonsten, ja hoffe und bete mal, anstatt sich zu überlegen bei der Konkurrenz zu kaufen wenn die Leistung stimmt? Ausser du bist mit G-Sync-Monitor NV gebunden, dann wäre es vllt nachvollziehbar.
Summerbreeze schrieb:Nö, wieso?
Den haben sie sich auch ehrlich verdient. Wenn nach über einem Jahr immer noch vereinzelt Blackscreens und div. Fehler im Treiber auftauchen / nicht behoben wurden, brauchen sie sich über Spott nicht beklagen.
Gut das NV nie Treiber-Probleme hat? Musste nur die letzten 3 mal nach den neuen Treiber auf alte wechseln weil immer irgendwas in den neuen Versionen nicht funzt. Ich glaube da nehmen AMD und NV sich nicht viel was schlechte Treiber angeht.
Gamefaq
Vice Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.056
Denn aktuell macht es den Anschein, dass es eine Variante von Navi 21 gibt, die ein 384 Bit breites GDDR6-Interface bietet und eine, die mit HBM 2 umgehen kann.
Klingt Logisch. das GDDR6 für unsere Endkunden aka Gamerversion und die HBM2 Version für die Pro Modelle für Firmen wo der Aufpreis für das HBM2 durch die Zeitersparnis die die Karten beim berechen in den Supercomputern wieder einsparen.
Che-Tah
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.976
Vega64 hatte auch genug Rechenleistung (TFlops) um gegen NV Highend zu bestehen... aber leider nur auf den Papier.
Einen kleinen Chip ums doppelte hochskalieren heißt nicht, dass er da Doppelte leistet.
Auf alle Fälle wirds spannender als die letzten Jahre.
Achja... ich hoffe manche Weltverbesserer - die meinen Firmen hätten was zu verschenken - stellen sich eh schon drauf ein das Big Navi auch entsprechen kosten wird...
Einen kleinen Chip ums doppelte hochskalieren heißt nicht, dass er da Doppelte leistet.
Auf alle Fälle wirds spannender als die letzten Jahre.
Achja... ich hoffe manche Weltverbesserer - die meinen Firmen hätten was zu verschenken - stellen sich eh schon drauf ein das Big Navi auch entsprechen kosten wird...
LikeMikeSter
Lieutenant
- Registriert
- Juni 2008
- Beiträge
- 514
Das sollte mitunter das wichtigste sein.edenjung schrieb:Der Monitor ist super und ich bin zufrieden...
Wer High-End will, darf auch ruhig High-End zahlen.PHuV schrieb:Und wer HighEnd will, findet bei AMD leider bisher keine Alternative.
Da braucht man sich nicht bei AMD beschweren, wenn die Nvidia Karten so teuer sind.
Du hast doch hoffentlich keinen VRAM-Griller gekauft? Sofern du die Karte noch hast, schau da lieber mal nach und spendiere einen ordentlichen Kühler samt passiv-Kühler für VRAM und SPAWA´s.PHuV schrieb:Selbst für den Kinder-PC war wegen 8 GB eine AMD gut, aber doch dann letztlich zu laut, und ich mußte damals dafür extra ein neues Netzteil für den Kinder-PC kaufen, weil ein gutes 500 W von beQuiet nicht mehr reichte.
Bei den Costumdesigns (egal ob Nvidia oder AMD) sollte nicht der Preis sondern Lautstärke und Temperaturen kaufentscheidend sein. Die 50€ Ersparnis bringen dir nichts, wenn du dafür eine Turbine hast, bei der sich pünktlich zum Garantieende der VRAM verabschiedet.
Schön wärs. Das glaube ich aber erst, wenn es soweit ist.modena.ch schrieb:50% mehr als ne 2080er wäre das absolute Minimum für den grossen Navi.
Ich würd eher mit 80-90% rechnen.
Chipfläche lässt sich leider nicht 1:1 in Leistung umrechnen.
modena.ch schrieb:50% mehr als ne 2080er wäre das absolute Minimum für den grossen Navi.
Ich würd eher mit 70-90% rechnen.
Schon ein doppelter RDNA1 Navi 10 Chip wäre 50% schneller gewesen.
Das ist doch Quatsch, nur weil BN vielleicht die (theorethische) doppelte Rohleistung einer 5700XT hat, heisst das noch lange nicht, dass sie doppelt so schnell wird. 70 bis 90% über 2080 halte ich für völlig utopisch. Das wird wahrscheinlich auch nicht die RTX3090 oder wie auch immer die heissen wird, leisten können.
K
KlaraElfer
Gast
ZeroStrat schrieb:Joar, da ist schon was dran. Vega hat viel GPGPU Ballast mit an Board.
Hat man bis heute diesen Ballast eigentlich schon identifiziert, oder wie ist der zu benennen?
Im Vergleich zur Hawai Architektur sehe ich da keinen Ballast, der vorher nicht da war, oder was ist der Unterschied zu Navi?
modena.ch schrieb:7NM Kapazität, was sonst?
Klaaar....^^
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.860
@modena.ch
ich glaub die geschichte setzt sich eher fort.
che-tah nimmt mir die worte aus dem mund:
ich glaub die geschichte setzt sich eher fort.
che-tah nimmt mir die worte aus dem mund:
aber mir persönlich egal, erstmal kein geld für (luxus-)upgrades und ich brauchs auch nichtChe-Tah schrieb:Vega64 hatte auch genug Rechenleistung (TFlops) um gegen NV Highend zu bestehen... aber leider nur auf den Papier.
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.334
Naja, eigentlich sollte jeder der Shooter zockt KEINE Konsole kaufen. Shooter auf Konsole ist doch wie Auto fahren ohne Lenkrad.sdo schrieb:Niemand der Rollenspiele, Shooter oder ähnliches zockt,
Ich kaufe mir definitiv eine kommende High End GPU. Ich habe zu viele Vorteile auf den PC. Mod Support will ich nicht missen und mein kompletter Freundeskreis spielt entweder PC oder gar nicht.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.846
ZeroStrat schrieb:Davon bin ich noch nicht überzeugt, also dass damit problemlos 80 CUs befeuert werden können. Außerdem, warum hat AMD dann nur so verhältnismäßig kleine Chips mit RDNA 1 umgesetzt?
Sagen wir so, dass RDNA problemlos über 40 Shader hinweg skaliert bleibt AMD uns noch schuldig. Bin mir aber auch Sicher, dass Sie das Problem kennen und zumindest daran arbeiten.
Das die Xbox Series X auf 52 Shader setzt, dürfte ein guter Hinweis darauf sein. Ich denke tatsächlich auch, dass wir die Xbox Series X GPU (mit den vollen 56 CUs) als neue Mittelklasse in Form einer 6800XT sehen werden.
Die Chipgröße von ~250mm² dürfte wohl eher ein Resultat wirtschaftlicher Überlegungen sein. Pro Flächeneinheit soll der 7nm Prozess etwa das doppelte von den Vorgängern kosten. als Nachfolger von Polaris 10 mit ähnlicher Größe passt das also ganz gut, wenn die preise nicht zu extrem anziehen solen.
Ähnliche Themen
- Antworten
- 23
- Aufrufe
- 4.473
- Antworten
- 46
- Aufrufe
- 7.490