News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Adzz schrieb:
Okay, jetzt schauen wir nicht mal mehr auf die Rechenleistung und vertrauen traumszenarien.
Irrtum, wir schauen auf die Rechenleistung, wir vergleichen nur nicht Nvidia mit AMD sondern AMD mit AMD.

Die Art wie Nvidia den Shadercount pro SM auf 128 erhöht hat, gibt ihnen halt sehr viel mehr theoretische Rechenleistung, die sie im Gaming aber nicht ansatzweise so gut abrufen können, wie es Turing konnte.
30 TFLOPs klingen aber gut fürs Marketing und man liest ja auch hier und da schon von Leuten, die jetzt meinen die 3080 wäre 3mal so stark wie die PS5 weil die ja nur 10 TFLOPs hat.

Bei AMD steht sowas mit RDNA2 halt nicht an, daher kann man hier auch die TFLOPs von RDNA1 auf RDNA2 hochskalieren inkl entsprechender IPC Erhöhung.

Die 3080 steht nun mal ziemlich genau 100% über der 5700XT, dabei hat die 5700XT nur 9.5 TFLOPs.
In RDNA2 würden also 20 TFLOPs ausreichen, um zur 3080 zu kommen.



Die 3070 wäre mit ihren 20 TFLOPs ja auch in Theorie doppelt so schnell wie eine 2080, was nicht mal die 3080 mit 30 TFLOPs geschafft hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hatch, FreedomOfSpeech, hurcos und 6 andere
Adzz schrieb:
Okay, jetzt schauen wir nicht mal mehr auf die Rechenleistung und vertrauen traumszenarien. Dieses jahr wissen wir ja mehr und wenn die rechnungen mit den 50% effizeinter nicht aufgeht und die karte doch nur 10% über der rtx3070 ist, dann kannst du dich auf das größte gelächter jemals über die karte und über die träumer von heute gefasst machen.

Der einzige der sich gerade auf Traumszenarien verlaesst bist du. Vielleicht hilft es sich doch noch einmal zu erkundigen wie Nvidia ihre FP32 TFLops definiert? Aber deine Aussagen lassen eh vermuten, dass dir das egal ist und du voll auf Nvidias Seite bist, komme was wolle.
 
  • Gefällt mir
Reaktionen: znarfw, Onkel Föhn und Taxxor
catch 22 schrieb:
Heißt es aber nicht auch, dass eine Chip Architektur an einen Fertigungsprozess angepasst sein sollte?
Nein, das geht schon. Siehe Pascal auf TSMC und Samsung. GA100 ist auch bei TSMC.
Nur muss das auch von Anfang an geplant sein. Denn man kann nicht mit dem Chipdesign mal eben woanders hingehen.
 
Zur 256 Bit Anbindung des Speichers:
Ich vermute, dass AMD vor der Wahl stand, auf 512 Bit zu gehen, oder den Cache massiv zu erhöhen, um eine geringere Speicheranbindung zu kompensieren.
Angeblich hat sich AMD für mehr Cache entschieden.

Mit der 512 Bit Anbindung werden halt mehr Lines zur Platine vergessen und braucht ebenso ordentlich Strom. Das ganze Synchron zu betreiben kostet Takt.
Mit mehr Cache kann AMD den Takt erhöhen. Bei den Leaks mit bis zu 2200 MHZ beim Big Navi schreit alles nach mehr Cache.

Pseudoquelle:
 
@Kacha
Geht laut MS aber wohl nicht und man muss abwegen wieviel man für RT nutzt und Rasterisierung.
Ausser du willst jetzt auch sagen MS hat keine richtige RDNA2 GPU ;)
Ich denke Lederjacke lügt da nicht das er NV einige Jahre vorraus sieht in sachen RT DLSS.
Und klar ist DLSS nicht um sonst.
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Was für mich dagegen spricht ist, dass man bei Nvidia mit der RTX 3080 und 3090 schon sein Pulver im Enthusiasten Bereich verschossen hat,

Der Grund ist simpel. Man wollte möglichst viele Käufer abgreifen, auch im Enthusiasten Bereich, aber die 3080 mit nur 10 GB ist halt kein adäquates Nachfolgeprodukt für 2080TI Besitzer, also musste man mit der 3090 kommen. Die 3090 ist ja solange der Ram nicht genutzt auch kaum schneller. Die können so ohne weiteres gar kein noch schnelleres Produkt raushauen.
 
  • Gefällt mir
Reaktionen: Zotac2012
catch 22 schrieb:
Für uns als Käufer lernt Nvidia nun hoffentlich auch diese Lektion, selbst wenn es uns im Einkauf teurer zu stehen kommen sollte / wird, aber uns kann es nur lieber sein, wenn wir für den Chip einer 3080 zusätzlich grob 25$ Entstehungskosten bei Nvidia (die im Straßenpreis der Custom Karten dann höchstens mit irgendwo bei 150 bis 200$ liegen sollten / können - von Nvidia bis zum Händler wollen ja alle was von den zusätzlichen 25$ ja auch mehr in der eigenen Tasche haben) zahlen, wenn wir im Gegenzug Hardware bekommen, die nicht außerhalb des Sweetspots betrieben wird, ggf deswegen ein neues Netzteil erforderlich wird, und was sonst noch alles bei Ampere ein wenig aus der Bahn geraten ist, vordergründig eben weil "nur" der 8nm Fertigungsprozess von Samsung eingesetzt wurde, anstelle des teureren 7nm Fertigungsprozess von TSMC
So einfach ist das nicht. Die Hersteller müssen sich ja Jahre im voraus entscheiden, wo sie hingehen. Das hat sich sicher nicht so entwickelt wie geplant. Nvidia ist ein Risiko eingegangen und es hat sich nicht ausgezahlt. Aber dieses Risiko muss man manchmal eingehen, wenn man sich die Preise nicht komplett zitieren lassen will.

Ist ähnlich wie bei Fury/Vega mit HBM. Das war eine Wette auf den HBM Preis und der GDDR Performance. Hat sich beides nicht entwickelt wie erwartet. Die Entscheidung ist über Jahre vorher gefallen.
 
tidus1979 schrieb:
Leute, diese Rechenspiele anhand von geleakten Specs führen doch zu nichts. Laut Nvidia war Ampere auch bis zu 1.9x so effizient wie Turing…

Nvidia rechnet ausgehend von gleicher FPS, AMD rechnet ausgehend vom gleichem Verbrauch.
 
Matzegr schrieb:
Nvidia rechnet ausgehend von gleicher FPS, AMD rechnet ausgehend vom gleichem Verbrauch.
AMD rechnet meist anhand einer definierten Karte, die dann sowohl schneller ist als auch weniger verbraucht und man so am Ende auf die 50% kommt.
 
Novasun schrieb:
Sorry das sehe ich zum Teil anders. Denn TMSC braucht auch "Partner". Denn ein neuer Fertigungsprozess entwickelt man mit denen am besten an konkreten Produkten. Und wenn man als erstes intern ein existierendes Chipdesign "nur" shrinkt... Damit sehen dann alle Beteiligten wie gut der neue Prozess ist. Und wo es evtl. neue Probleme gibt... Und NV war zumindest in letzter Zeit nie einer der ersten die den aktuellsten Fertigungsprozess nutzte. 7nm nutzt NV ja nur bei irgendwelchen Quadros.. Da war aber die 5xxx schon lange draußen und Zen 3 ES gab es da vermutlich auch schon.
Nur weil man später drauf setzt, heißt es ja nicht, das man erst spät zusammen arbeitet. Und für die Grundlagen braucht TSMC kein fertiges Chipdesign um das Transistordesign zu entwickeln.
Und vor AMD waren schon alle SoC Hersteller durch den N7 durch. Da ist AMD im Vergleich auch spät dran.
 
domian schrieb:
Ich bleibe dabei, irgendetwas ist nicht stimmig. Denn wenn Big Navi wirklich so gut wird, täte AMD gut daran mal ein paar Benches zu leaken, damit diejenigen die jetzt auf eine 3080 geiern einfach warten.
Im Gegenteil, wenn sie etwas starkes haben handeln sie taktisch klug nichts rauszulassen denn nvidia hat noch nicht alle Modelle vorgestellt und man würde ihnen damit zwangsläufig einen Anhaltspunkt für die Produktplatzierung geben.
Dann wäre wohl besser sie im ungewissen zu lassen und am Ende die Bombe platzen zu lassen.
 
  • Gefällt mir
Reaktionen: garbel
Hört sich gut an und hoffentlich bewahrheitet es sich. In der Leistung soll eine schöne Konkurrenz entstehen wovon wir Kunden profitieren können.
Ich kaufe trotzdem Grün aufgrund der Features. Auf DLSS möchte ich nicht mehr verzichten. Mir ist Grafik ziemlich egal, aber ich hasse Kantenflimmern. Und nichts macht so ein schönes Bild wie DLSS.
 
PusteBlume0815 schrieb:
Was lernen wir daraus? Ein Porsche der bei 150km/h 20 Liter verbraucht wird trotzdem nicht gerügt weil es eben ein Porsche ist.

Nur ist Deine Antwort völliger Quatsch. Brems den Porsche (RTX 3080) auf normales Tempo runter und der Wagen (die Karte) wird auch handzahm.

Und für die Entscheidung, bei der 3080 für die letzten 4% Mehrleistung 50W zusätzlich zu verballern, wurde NVidia auch schon mehrfach in den Tests und auch hier im Forum gerügt.
 
romeeee schrieb:
Pass beim Umrechnen der Effizienz auf. Die Effizienzsteigerung bezieht sich fast immer auf den Vergleich gleicher Grafikeistung mit älterem Arc, das kann man nicht einfach so umrechnen, dass die höhere Leistung dieser Effizienz entspricht. Laut NVIDIA Whitepaper ist Ampere 90% effizienter als Turing... Inwieweit die Mehrleistung dann skaliert wird hierdurch nicht beschrieben.

Anhang anzeigen 972109
Nichts für ungut aber dieser teil der Präsentation war Augenwischerei weil eben nicht 2 gleich starke Chips verglichen wurde sondernvor allem Ampere auf Teillast rumdümpelte wärend die Turing GPU offenbar auf Vollast lief. So bekommt man auch Vega und Co. sparsam gerechnet. ;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
romeeee schrieb:
Pass beim Umrechnen der Effizienz auf. Die Effizienzsteigerung bezieht sich fast immer auf den Vergleich gleicher Grafikeistung mit älterem Arc, das kann man nicht einfach so umrechnen, dass die höhere Leistung dieser Effizienz entspricht. Laut NVIDIA Whitepaper ist Ampere 90% effizienter als Turing... Inwieweit die Mehrleistung dann skaliert wird hierdurch nicht beschrieben.
Da gebe ich dir Recht und das habe ich durchaus berücksichtigt ;) Meistens ist die Effizienz ja maßgeblich vom Takt abhängig, da eine Erhöhung der Kerne oder der Shader sich in etwa proportional auf den Stromverbrauch auswirken, während eine Erhöhung des Taktes zu einem exponentiell wachsenden Stromverbrauch führt.

Was wir bei der 6900 XT gegenüber der 5700 XT sehen ist aber vor allem eine Erhöhung der Anzahl der Shader-Einheiten, und zwar eine glatte Verdopplung. Sofern sich am Takt jetzt nicht all zu viel ändert oder dieser sogar leicht verringert wird (was der Effizienz zu Gute käme und dank eines potentiell höheren IPC's ja durchaus auch möglich sein sollte, ohne zu viel Leistung zu verlieren), könnte die Effizienz-Steigerung von 50% also durchaus realistisch sein, wobei ich hier auch eher vorsichtig von 35-40% ausgehen würde.

Natürlich will ich mich hier nicht festlegen, aber mit meiner Rechnung wollte ich nur einmal aufzeigen, dass es zumindest im Bereich des möglichen ist und wir uns durchaus auf ein Duell zwischen AMD und Nvidia einstellen können :)

Ich denke, dass AMD sich durchaus bewusst ist, dass sie liefern müssen, wodurch die die Anzahl der Shader also auch so gewählt haben, dass sie damit eine ausreichende Effizienz erreichen, um bei ähnlicher maximaler Leistungsaufnahme wie Nvidia konkurrenzfähig zu sein. Aber auch das ist aktuell natürlich nur Spekulation.
 
Taxxor schrieb:
Wer anhand der bisherigen Leaks nicht auf AMD wartet, der kauft sowieso Nvidia.
Oder er wartet zwar auf was Starkes von AMD, aber nur in der Hoffnung, dass nVidia beim Preis reagiert und er "seine" nVidia Karte dann günstiger zu bekommen. Lief ja bei Ryzen teils ähnlich, wo auch nicht Jeder das bessere Preis/Leistungs-Paket gekauft, sondern Mancher eher zu Intels Reaktion gegriffen hat.
 
  • Gefällt mir
Reaktionen: fLo547 und Onkel Föhn
McFritte schrieb:
Zum gefühlt 1734ten Mal in den letzten Wochen. Die AMD Karten, insbesondere Vega 64, wurden nicht für die hohe Leistungsaufnahme gerügt, sondern weil die trotz der hohen Leistungsaufnahme "arschlangsam" waren.
Hawaii war in Relation zur 780(Ti) also "arschlangsam"? Das wäre mir aber neu. Es gab identische Leistung, aber gerade in Bezug auf die 780 war Hawaii dann wieder ein Säufer. Wurde auch, trotz guter Performance, für die Leistungsaufnahme gerügt. ;) Lautstärke mal außen vor, da braucht man nichts zu sagen.
 
  • Gefällt mir
Reaktionen: McTheRipper
pipip schrieb:
Die HBM Karten die "übrig" bleiben werden Profi Karten.

deine Logik hat aber einen haken für den „Profi bereich gibts ja einen eigenen chip das wäre ja cdna 🤷🏻‍♂️
 
McFritte schrieb:
Nur ist Deine Antwort völliger Quatsch. Brems den Porsche (RTX 3080) auf normales Tempo runter und der Wagen (die Karte) wird auch handzahm.
Autovergleiche sind halt immer dämlich, da nie vergleichbar.
Fahr dein Porsche im 3. Gang mit den 150 (wie Nvidia die 3080 fährt) und schon bist du ein teurer Golf der säuft
 
Zurück
Oben