News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

B.L. Swagger schrieb:
Ne 2060 kann auch in manchen bereichen höher laufen...

Wenn die FPS gelockt sind, dann kann sie nicht höher laufen. Spekulationen auf der Basis sind absurd.
Eine schlechte RT Leistung für AMD kann man daraus nicht ableiten.
 
  • Gefällt mir
Reaktionen: Obvision und yummycandy
  • Gefällt mir
Reaktionen: konkretor
Baal Netbeck schrieb:
Geht man von einer ähnlichen prozentualen Abweichung aus, wären es immer noch 1993MHz....Da könnte man nicht meckern....aber das erreichen die besseren Partnerkarten der 5700XT auch, und ihr Leistungszuwachs gegenüber dem Referenz Design, ist mit 4% entäuschend.
Dann wurde bei der VII der max. Boost Takt aber um 20 MHz verfehlt also etwas über 1% und bei anderen Modellen wurde er erreicht oder gar übertroffen. Wo ist also die Grundlage für die Argumentation? Selbst wenn man die 1,1% von den 2050 MHz abziehen würde wäre man immernoch über 2 GHz und würde sich dabei als extrem kleinlig outen. :watt:

Der Frequenzbereich dürfte auch ziemlich normal sein denn GPUs nehmen schon seit längeren bei unterschiedlichen Lasten unterschiedliche Taktfrequenzen an.
Des weiteren ist die Erfahrung mit anderen Architekturen recht nutzlos weil es eben andere Architekturen sind die sich anders verhalten können und und deshalb bestenfalls als Anhaltspunkt für Spekulationen dienen können.
Was aber noch viel wichtiger ist, stimmt es zählen nicht nur die CUs sondern auch die anliegenden Taktfrequenzen die bei den Vergleichen so gern ignoriert werden aber rausgerechnet werden müßten.
Wenn also das Referenz Modell 1906 MHz erreicht und OC Modelle 1993MHz erreichen können und dabei 4% Mehrleistung abwerfen, warum soll das dann enttäuschend sein? Das wäre schließlich eine Takt Skalierung von ca. 99%.

Deshalb frage ich mich derzeit auch was du überhaupt willst.
Willst du über einen erreichbaren Boost Takt reden, die Takt Skalierung, die CU Skalierung oder das Wetter?
 
Mir ist da noch ein anderer Aspekt in den Kopf gekommen.
AMD hat ja RDNA2 quasi in Zusammenarbeit mit Sony und Microsoft entwickelt.
Natürlich kann man den Desktop Chip nicht mit der Variante in den Konsolen gleichsetzen (sind ja keine dedizierten GPUs) aber die Technik ansich ist ja mehr oder weniger die selbe.

Der für mich sehr interessante Punkt ist doch ob AMD nicht ursprünglich mit Sony und Microsoft an deutlich stärkeren Chips für die Konsole gearbeitet hat und das einfach aus Kostengründen und anderen Beschränkungen der Konsole runter skaliert wurde, so das es passt.

Big Navi könnte halt schon absolutes High-End darstellen und nicht so wie von manchen hier spekuliert gerade mal 3070 Niveau erreichen.
Wobei mir das schon genügen würde, wenn wenigstens der Stromverbrauch und Preis stimmt.

Nvidia fliegt bei mir schon raus, da ich ein neues Netzteil kaufen müsste und ich die Strompreise nur für Gaming schlicht nicht mittrage, geschweige denn von den Grafikkarten-Preisen. 800 Euro für die Technik ohne viel davon zu haben zahle ich einfach nicht, denn auch Next-Gen ist mal wieder Gaming = AMD, auch wenn viele Nerds am PC das nicht wahr haben wollen. Ganz egal was Nvidia am PC macht, es muss immer mit viel Aufwand geschehen.

AMD sitzt da am längeren Hebel. Die Optimierung geht quasi wie von alleine wenn man eine RDNA2 im Desktop verbaut. Ist für mich auch ein entscheidener Punkt pro AMD zu gehen.
 
  • Gefällt mir
Reaktionen: DannyA4, edenjung, janer77 und 3 andere
daniel 1301 schrieb:
Was ein wenig an AMD Konkurrenzfähigkeit zweifeln lässt, ist die Inaktivität von AMD zur Zeit. Von ein paar unkonkreten Mitarbeiter-Tweets einmal abgesehen, kommt da ja rein garnichts.

Mit dem erstem Satz bin ich nicht Deiner Meinung! In der Ruhe liegt die Kraft....

Ich bin eher der Meinung, dass man Nvidia mal so ganz absichtlich lange so im "Nichts" gelassen hat.
Wenn man immer so ganz ehrlich?/optimistisch rausposaunt was man alles so macht und vor hat und wo man so Performance-Technisch hin will macht man es Nvidia doch einfach......

Ansonsten bin aber ganz bei Deinem Post.
 
  • Gefällt mir
Reaktionen: cypeak, Alpha.Male und Mcr-King
yummycandy schrieb:
Sogesehen könnte RDNA2 komplett für den Consumerbereich optimiert sein.


Hardware für Computerspiele zu bauen ist auch wirklich fies.

"Leider" muss AMD das momentan machen und zum Glück kam die neue Generation von Konsolen.

RDNA hätte es mMn nicht gegeben, wenn man hier nicht hätte weiter entwickeln müssen. Die 8k Shader Instinct ist mega geil, für Games aber nun einmal nicht geeignet.

Schön, dass AMD den Gamer Markt nicht aufgeben konnte, mal schauen, was wir im Fahrwasser der Konsolen bekommen.

mfg
 
  • Gefällt mir
Reaktionen: jemandanders, yummycandy und Mcr-King
B.L. Swagger schrieb:
MS meinte ja man ist daher etwas enttäuscht das Entwickler lieber weniger RT Effekte nutzen wollen. Das muss man bei NV nicht

Naja auch dass Zeug für RTX Gedöns muss von Grunde neu Programmiert werden, Aufwand nutzen sorry egal ausser NV progrmmiert es was ich bezweifle.

Siehe DSSL 1.0 musste auch erst Aufwendig in Teuren Severn gelernt werden und wer hat es bezahlt der GTX16er und RTX20er Käufer. 😉

Genau da liegt der Fehler
Vitec schrieb:
Die RX 6800 XT sieht aus, als könnte sie ein sehr gutes Gesamtpaket werden mit 12GB wenn der Preis stimmt.
Man kann es kaum glauben, aber evtl. ist das neue Cachesystem ausreichend, sodass diese Bandbreiten ausreichen.

Ja die mit Navi23 mit 6GB nicht wirklich der Hit wäre, zum Cache ja der ist grade bei
INT Berechnungen und RT und DSSL hilfreich.

Natürlich auch für die Zukunft und dem i/o Die für MCM was sicher bei NAVI31 Kommt. ;)
 
Zotac2012 schrieb:
Ganz einfach NEIN! Wäre das so wie Du es hier beschreibst, dann wäre jetzt AMD der Marktführer und Primus im Desktop-CPU Bereich, das ist aber wie wir alle wissen nicht der Fall.

Das ist nicht wahr.
https://www.pcgameshardware.de/Mati...-erneut-neue-Rekorde-bei-Mindfactory-1340390/

Das deckt sich mit unseren Verkäufen. Der OEM Markt zieht immer nach. Ist aber auch nicht unbelehrbar.

Gerade die so nicht informierten außerhalb des Forums kaufen das, was andere auch in Ihrem Rechner haben und das ist den meisten Fällen eher grün als rot! Die meisten verbinden Gaming Grafikkarte mit Nvidia, was man auch verstehen kann, wenn man sich gerade so die letzten Jahre anschaut.
Das ist nicht wahr. Alle Zahlen, auch Retailer außerhalb unseres Dunstkreises haben gegenteilige Zahlen.

Wie kommt der normale User immer auf solch absurde Ideen, wie nicht der Markt reagieren würde, obwohl die Reaktionen teils offen im Netz veröffentlicht sind?

Novasun schrieb:
Das ist Quatsch. Jeder hat seinen eigenen Entwicklungsdurchlauf und Produktionslauf. Das kann man nicht beliebig schieben. TMSC wartet auch nicht gerade auf dich als Auftraggeber - 7nm ist ja sehr gut ausgelastet.
Das weisst Du woher? War es nicht so, dass Pressemeldungen im Vorfeld von Stornierungen im 7nm Bereich gehandelt haben?
https://www.gizmochina.com/2020/06/...wei-orders-caused-by-the-recent-us-sanctions/

AMD kann im Moment schon dreimal nicht so einfach was verschieben. Die wuppen gerade 4 Projekte alle in 7nm bei TMSC. Und ganz ehrlich - Prio hätte bei mir nicht die GPU Sparte. Zen3 dann die Socs für Sony Microsoft und zum Schluss die GPU...
Auch wenn AMD aus was für einem Grund auch immer, als das "angeschossene Reh" behandelt wird. Das ist ein großes und solides Wirtschaftsunternehmen und ein großer "Player". Die können extrem viel leisten. Gerade weil sie in Sphären unterwegs sind, die nicht mit menpower erschlagen werden können.
Das sind ein par Megabrains, die hier im Halbleitergeschäft die großen Weichen stellen. Und die kannst Du mit Geld nicht kaufen.

Teralios schrieb:
und @.Sentinel. ehrlich gesagt, denkst du hier auch zu »klassisch«.
Ich stelle nur seit inzwischen mehr als 30 Jahren fest, das hier immer wieder versucht wird, dem "klassischen" Ansatz ein Schnippchen zu schlagen.
Es funktionier aber nicht.

Sowohl mit Hawaii, Furry als auch Polaris und erst recht mit Vega. Bei jedem dieser Releases haben sie relativ früh auf NVIDIA reagiert und gesagt: Wartet bis wir was haben.
Meine Prämisse in diesem Fall, die man auch nicht missverstehen kann ist, dass sie signalisiert haben womöglich den "Killer" in der Hinterhand zu haben.

Bei Hawaii und Furry stimmte es "bedingt", denn die Karten waren zwar nicht schlecht, aber es war durchwachsen und die Leute waren enttäuscht. Bei Polaris waren die "Hoffnungen" auch groß und es kam zwar keine schlechte Karte,
Man muss die Realtiäten erkennen. Schlechter als die Konkurrenz reicht schon, um eben nicht mehr konkurrenzfähig zu sein.

aber doch der Ast war durch aggressives Marketing angesägt und der Werbe-Fachmann - der nun bei Intel arbeitet - samt Koduri haben diesen Ast mit Vega vollkommen zersägt.
Exakt- Auch jetzt werden wieder Hoffnungen geschürt, dass da ein 3090 Killer entstehen könnte.

Das ist deine Meinung. Ich habe sowohl im Studium - Wahlpflichtfach - als auch in der Praxis gelernt, dass es manchmal klüger ist seine Karten erst auf den Tisch zu legen, wenn man so weit ist. Oder anders ausgedrückt: Statt durch große Worte auf die Kacke zu hauen, lass das Produkt auf die Kacke hauen.
Und ich habe seit den 80er Jahren gelernt, dass es dann klug ist auf die Kacke zu hauen, wenn man tatsächlich ordentlich was auf der Pfanne hat.

Und da kommt der nächste Punkt: Viele die jetzt NVIDIA-Hardware kaufen, würden keine AMD-Hardware kaufen, selbst wenn sie jetzt Benchmarks der 6900 XT heraushauen und die für 699,- so schnell wäre wie die 3090.
Und genau da kommt der Punkt, der durch alle praxisrelevanten Zahlen seit Jahrzehnten immer und immer wieder lügen gestraft wird.

Es ist "den Leuten" absolut Egal, von wem etwas kommt. Der eigene Geldbeutel steht ihnen näher. Und alle Zahlen in der Praxis bestätigen das seit Jahrzehnten immer und immer wieder.

Und ja, du erkennst in deinen späteren Beiträgen richtig: Die meisten kaufen zu einem Zeitpunkt X und nehmen dass, was auf dem Markt ist. Du lieferst also in deinem Beitrag #557 also bereits ein Argument, warum AMD eben kein wirkliches Störfeuer zum Launch von NVIDIA bringen muss.
Irrtum. Jeder Test zum Zeitpunkt XY enthält eine Passage, was es bei der Bewertungsgrundlage zu berücksichtigen gilt. Gerade wenn eine Konkurrenz nur Tage vom Release entfernt ist.

Und das wichtigste Argument ist folgendes - auch wenn es im Text von mir schon versteckt ist: AMD gewinnt nichts, wenn sie jetzt hohe Erwartungen an RDNA2 schüren. Sie verlieren eher mehr, wenn der Start dann nicht reibungslos verläuft.
100% einverstanden. Hier wird aber das Szenario gestrickt, dass es klug wäre, trotz deutlich überlegenerem Produkt "hinterm Berge" zu halten.

Das ist nunmal abseits aller Realitäten und abseits des wirtschftlichen Handelns.

Ganz im Gegenteil: AMD kann mit einem überraschenden und positivem Ergebnis Ende Oktober sogar viel eher überzeugen.
...nachdem sich nach jahrelangem Innovations- und Investitionsstaus eine Investitionslavine aufgebaut hat?

Ganz einfach - NEIN! - Wer da mit einem vernünftigen (vielleicht nicht dem besten) Produkt zuerst kommt, malt zuerst.

Genau bei diesen 32 bzw. 64 Werten liegt dann für NVIDIA mit Ampere aber auch etwas dir Crux begraben.
Oder auch der Vorteil. Vorher hat man aus Auslastungsgründen Berechnungen in Int gedrängt, die bei FP besser aufgehoben gewesen wären.
Im Umkehrschluss kannst Du deutlich mehr Int Operationen in FP drängen als umgekehrt.

Das heisst, dass Ampere ein enormes Performance- Potenzial in zukünftigen Titeln haben wird.

Bei Integer-Berechnungen stehen die zusätzlichen ALUs ohnehin nicht zur Verfügung, da sie vollkommen blockiert werden, egal wie viele INT-Werte berechnet werden müssen. Es ist dabei egal, ob dann 64 INT-Werte berechnet worden, 32, 16 oder nur 8, der 64er-Block ist reserviert dafür.
Selbst im schlechtesten Falle "brichst" Du damit ein SM in der Masse an.
Der Verlust ist im Bereich der Messungenauigkeit, wohingegen ein entweder oder der TPUs bei AMD in Sachen RT ODER Tprocessing ganz anders reinhauen kann. Ich betone KANN- nicht MUSS.
Das werden die zukünftigen Tests zeigen.

NVIDIA hat aktuell bedingt mit Ampere ein ähnliches Problem wie AMD es mit GCN hatte: Sie müssen die SM auch entsprechend auslasten können. Bei AMD war damals das Problem, dass sie zwar oft "genug" Werte für die CU bekommen konnten, aber nicht genug »Threads« auf die CU loslassen konnten.
Umgekehrt wird ein Schuh draus. nvidia hat über generationen hinweg bewiesen, dass sie eine ordentliche Auslastung hinkriegen.
AMD hat immer mit theoretische Zahlen beeindruckt, wo am Ende nur heiße Luft rumgekommen ist.

NVIDIA hat mit Ampere nun das Problem, dass sie zwar genug Threads darauf loslassen können, aber nicht genug Werte haben um jeden Thread optimal auszufüllen. Das hat sich ja »bedingt« schon bei Turing gezeigt, da sich ein Großteil der INT-ALUs gelangweilt haben.
Sie reagieren einfach auf die künftigen Anforderungen der Engines.
Da kippt das Verhältnis Int zu FP immer weiter.
Endlich lasten sie also die Einheiten wieder vernünftig/praxisgerecht aus.

Apocalypse schrieb:
Zeitschriften für nicht Nerds? Bist du 20 Jahre eingefroren wesen?
Ja- Manchmal habe ich das Gefühl, dass ich den Markt schon zu lange beobachte und ein Teil davon bin.
- Mach einfach Publikationen aus dem "Zeitschriften".

Die lesen vielleicht hier oder bei der PCGH die Review, wenn sie schon kleine Nerds sind oder Fragen halt den Händler oder Kumpel was gerade taugt. Der Kumpel kauft dann halt schon immer Nvidia und fertig. Ein neuer Nvidia Kunde.
Du könntest nicht weiter entfernt liegen. Cool ist, was nicht dem Mainstream entspricht.
Wenn Du als einziger den Geheimtipp für viel Leistung zu weniger Geld liefern kannst, bist Du der Held vom Erdbeerfeld.

Langsam merke ich- Ich mache den ganzen Affenzirkus schon zu lange mit. Die Zyklen/die Geschichte wiederholt sich und damit immer die gleiche Argumentationen/Resentiments, die auch schon damals daneben waren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, mr_clark, ComputerJunge und 2 andere
Hallo zusammen,

@ iron mike
iron mike schrieb:
Nvidia fliegt bei mir schon raus, da ich ein neues Netzteil kaufen müsste
Ein Neues Netzteil wirst du dir so oder so Kaufen müssen, wenn du die Neue AMD GPU`s erstehen möchtest. Nach den bisherigen Daten urteilend, wird sie nicht so arg unter der 3080 liegen, vielleicht 30 - 50 Watt sind erwartbar und das wäre immer noch in Ordnung wenn sie nicht weit weg von der Performance her ist.

Aber du darfst nicht außer Acht lassen, daß es noch andere Maßgaben für Netzteile gibt, die sich geändert haben, als der Maximalverbrauch.

So long...
 
  • Gefällt mir
Reaktionen: DannyA4 und .Sentinel.
@Luxmanl525
Ich habe mir erst vor ein paar Monaten ein 650 Watt Platinum Seasonic gekauft, ich glaube nicht das ich das tauschen muss. Vermutlich gehst du davon aus ich habe ein älteres Netzteil ;)
 
  • Gefällt mir
Reaktionen: Obvision
Luxmanl525 schrieb:
Hallo zusammen,

@ iron mike

Ein Neues Netzteil wirst du dir so oder so Kaufen müssen, wenn du die Neue AMD GPU`s erstehen möchtest. Nach den bisherigen Daten urteilend, wird sie nicht so arg unter der 3080 liegen, vielleicht 30 - 50 Watt sind erwartbar und das wäre immer noch in Ordnung wenn sie nicht weit weg von der Performance her ist.

Aber du darfst nicht außer Acht lassen, daß es noch andere Maßgaben für Netzteile gibt, die sich geändert haben, als der Maximalverbrauch.

So long...

Bin zwar nicht angesprochen worden, interessiert mich jetzt aber trotzdem deshalb frag ich mal.

Welche denn? Sagen wir mal ich hab hier zwei BeQuiet mit Gold und Platinum hier welche jeweils 7 Jahre alt sind.
Über welche Maßgaben sollte ich mir sorgen machen? Im Drittrechner übrigends 15 Jahre alt das Teil (Irgendwas mit S).

Wann sollte man den das Netzteil tauschen? Die Effizienz sinkt und die Möglichkeit auf einen Ausfall steigt, ja gut aber die Maßgaben für Netzteile würden mich interessieren. Halten die mittlerweile 50 Jahre?
 
KlaraElfer schrieb:
Eine schlechte RT Leistung für AMD kann man daraus nicht ableiten.
Natürlich, denn wieviel TF hat ne 2060 und wieviel mehr frames hat ne 2080/Ti mit RT in 1080p?
Also ist sie schon mal nicht auf 2080 Niveau da es sonst 1440p wären.
Und jetzt gibts schon Ampere mit nochmal deutlich mehr RT performance.
Wer denkt AMD wird NV beim RT gefählich, kann sich warm anziehen.

Selbe für ML gegen ne 2060 von nem ander DF artikel, für das RDNA2 auch keine dedizierte HW hat, die Xbox immerhin weil sie sonst noch mehr RT performance einbüßen müssten.
Aber auch da hat MS inder Box trotz extra HW nur die halbe Performance einer 2060

XSX
INT8 = 49 TOPS
INT4 = 97 TOPS

RTX 2080Ti Founders Edition
INT8 = 227.7 TOPS
INT4 = 455.4 TOPS

RTX 2080 Founders Edition
INT8 = 169.6 TOPS
INT4 = 339.1 TOPS

RTX 2070 Founders Edition
INT8 = 126 TOPS
INT4 = 252.1 TOPS

RTX 2060
INT8 = ~100 TOPS
INT4 = ~200 TOPS
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs

Aus dem ERA zusammengefasst.
 
Taxxor schrieb:
300W ist ja auch die TBP.... sorgt anscheinend echt für viel Verwirrung hier, da hilft es auch nicht, dass die Quelle einfach immer TDP schreibt obwohl überall der Verbrauch der Karte steht.
Vielleicht sollte man sich auch einfach nur mal darüber bewußt sein um was es geht anstatt krampfhaft an Begriffen festzuhalten.

Bei den Angaben geht es um die Karte selbst und nicht nur um die GPU und damit auch darüber wieviel Wärme davon dauerhaft abgeführt werden muss.
Im Peak kann bei der Aufwärmzeit und auch später kurzzeitig mehr aus dem Netzteil genuckelt werden, was für das Kühlsystem selbst aber nahezu egal ist weil dessen Erwärmung vergleichsweise träge ist.
 
fox40phil schrieb:
6GB für die 6700XT?! no way.... das wäre total mies!
Könne sie sich ihre 6GB Karten nicht für <200€ aufheben!?!
In Anbetracht der 150 Watt TBP, könnte das wahrscheinlich sogar eine "<200€ Karte" oder zumindest nicht weit oberhalb der 200€ Marke sein und AMD verlässt sich da vielleicht auch wieder auf PCIe 4.0?
Wobei... 6 GB Vram und wieder ein "XT" in der Modellbezeichnung... da rollt es ein weiteres mal meine Fußnägel auf...



Btw. ist eigentlich Bekannt, ob AMD bei dem Oktober Event auch was zu mobilen RDNA2 Lösungen sagen wird?
 
  • Gefällt mir
Reaktionen: fox40phil
.Sentinel. schrieb:
Ich mache den ganzen Affenzirkus schon zu lange mit.

Trotzdem, danke für den langen Text m8.

.Sentinel. schrieb:
Exakt- Auch jetzt werden wieder Hoffnungen geschü, dass da ein 3090 Killer entstehen könnte.

Den G(x)102 zu schlagen wird schwer genug. Den nahezu Vollausbau zu "killen" ist eher unwahrscheinlich.

mfg
 
  • Gefällt mir
Reaktionen: Balikon und yummycandy
catch 22 schrieb:
Btw. ist eigentlich Bekannt, ob AMD bei dem Oktober Event auch was zu mobilen RDNA2 Lösungen sagen wird?
Außer der Ankündigung von RDNA2 ist gar nichts bekannt.
 
  • Gefällt mir
Reaktionen: tidus1979, bad_sign und catch 22
@Taxxor @KlaraElfer

Da hat Dictator von DF auch seine bedenken mal erwähnt vor kurzem

One thing to consider - NV built 2 dedicated hardware bits for the GPU - one of which - the tensor core - has pubically been in development for a long time. AMD doesn't have markets or research necessarily in those segments that brought NV to be making the tensor and the rt core in the first place. I cannot say with any certainty, but if AMD did not already have long term standing research into hw implementations of ai work or rt work (which it has no public record of, unlike NV), then AMD may in fact be a generation or more behind on this hw front at least (especially with things like the tensor core).
https://www.resetera.com/threads/di...y-tracing-showcase.65140/page-5#post-12035235
 
yummycandy schrieb:
Außer der Ankündigung von RDNA2 ist gar nichts bekannt.

150 Watt für 2.5K RDNA2 Shader.

Nehm ich als mobile GPU. einmal bitte bauen mit 120 Watt. Die 175 Watt der 5600XT waren zu viel.

mfg

p.s.

Ob genug, wirklich gute Chips vom Band kommen und nicht noch irgend ein großer Konzern die schon gekauft hat, steht natürlich auf einem anderen Blatt Papier.
 
B.L. Swagger schrieb:
I cannot say with any certainty, but if AMD did not already have long term standing research into hw implementations of ai work or rt work (which it has no public record of, unlike NV), then AMD may in fact be a generation or more behind on this hw front at least (especially with things like the tensor core).
Das ist ganz schön naiv. Nur weil AMD noch keine Produkte mit dedizierter HW veröffentlicht hat, heißt das nicht, daß sie nicht schon länger in dem Bereich forschen.
 
  • Gefällt mir
Reaktionen: DannyA4, Obvision, or2k und 3 andere
Zurück
Oben