News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Wichtig ist, dass AMD keinen Schnellschuß hinlegt. Sondern eine ausgewogene, in die Zukunft gerichte Strategie um Nvidia langfristig das Wasser abzugraben. Durch den Fertigungsprozess bei Samsung sieht es so aus, als wenn Nvidia da an ein Limit gelangt ist.
Für AMD wäre jetzt gut gleich auf, vielleicht etwas langsamer bei besserem Verbrauch, und dann in 2 Jahren auf Augenhöhe. Es gibt viel zu tun. DLSS und ROIP stehen noch am Anfang, werden in 2 Jahren aber wichtig sein.

Eins ist auch klar, der Ofen war nicht an, die Nvidia Karte erwärmte den Ofen.
 
  • Gefällt mir
Reaktionen: ComputerJunge und downunder4two
wern001 schrieb:
Das amd teil ist echt nicht der Hit. Bei feinen Farbverläufen kommt es des öfteren zu Tonwert abrissen. Egal was man einstellt geht nicht weg.
NVENC ist auch nicht der Hit, wenn man mal ganz ehrlich ist. Beides ersetzt keine Capture Card oder ne schnelle CPU für einen besseren Codec.
 
  • Gefällt mir
Reaktionen: eXe777 und aldaric
M1ch1 schrieb:
Ich denke die Frage ob AMD besser ist oder nicht wird bei dieser generation erst spät zum tragen kommen.

AMD wird wahrscheinlich noch mehr probleme haben, die Karten ran zu schaffen als Nvidia mit der 3000er.
Denn bei TSMC sind die kapazitäten auch begrenzt. und AMD muss auch die Konsolen beliefern, Ryzen fertigen und Appel mit chips versorgen.

Und da wird die consumer chip sparte ganz hinten anstehen, da hier einfach der eventuelle verlust am geringsten ist. bei den Konsolen würde es vertragsstarfen geben wenn nicht entsprechend geliefert wird, ebenso bei Appel. Bei Ryzen würde man kunden verlieren, während man bei Grakas nur einen konkurenten hat, der anscheinend selbst mit lieferproblemen zu kämpfen hat.
Wenn die Nachfrage prozentual ueber dem Marktanteil liegt vieleicht. AMD ist guter Kunde bei TSMC die Ausbeute pro Wafer ist ordentlich (Preise Zen). Appel ist in den 5nm Prozess gerutscht, da sind im 7nm Prozess Kapazitaeten fuer Anderes frei geworden. Das Konsolen und neue Grafikkarten fast Zeitgleich erscheinen, laesst vermuten das die Fertigungskapazitaeten, bei den Konsolen die 2te Charge und den Grafikkarten besser schedult werden um optimal den Prozess bei TSMC zu nutzen. Wenn die Nachfrage die Kapazitaeten uebersteigt, naja ist halt so.
 
romeeee schrieb:
Es geht mir nicht darum zu zeigen wie toll Ampere ist, sondern dass die dargestellte Effizienzsteigerung nicht dem entspricht, was sich die Leute bei "50% Effizientsteigerung" vorstellen, nämlich 50% Mehrleistung bei gleichem Verbrauch.
Das die Leute keinen Dreisatz können ist ja hinreichend bekannt. Aber das ist nicht das Problem von Mathe^^
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech und Taxxor
SV3N schrieb:
Aber wenn sich AMD angesichts Ampere entspannt gibt und die Speerspitze seines Portfolios auf Basis einer neuen Architektur vorstellt, dann darf man auch auf ein Produkt auf Augenhöhe mit einer 3080 hoffen und auch 5 Prozent dahinter sind noch immer auf Augenhöhe.

Aber was selbstbewusstes und leistungsstarkes sollte da schon kommen, sonst sind die Leute (die sich High-End wünschen) halt auch zu recht enttäuscht und kaufen nicht.
Hoffen darf man, aber ich denke da an so großspurige Aussagen wie "poor Volta", die am Ende einfach nur peinlich für AMD waren.

Aus meiner Sicht muss für die Radeon Group mit den neuen Karten einfach alles super laufen um auf Nvidia aufzuschließen:
Da muss die IPC wie versprochen stark steigen...sonst wird das auch mit 2GHz und 80CUs nix.
Da muss die Fertigung nochmal besser geworden sein, damit sowas wie 2GHz+ nicht in einer 400W Karte enden.
Da müssen die Taktraten auch gehalten werden und nicht nur in der Theorie anliegen.
Da muss es ordentlich VRam und VRam Bandbreite geben.
Da muss der Treiber endlich mal zum Start bereit sein.
Da muss der Kühler zur Abwechslung mal keine laute Lachnummer werden...oder wenn er das ist, müssten die Boardpartner schnell eigene Modelle bereit haben.
Da muss die Verfügbarkeit zumindest halbwegs vorhanden sein.
RT muss zum Start auch funktionieren(ja das war bei Nvidia nicht so, aber AMD ist ja auch der Nachzügler).
Und dann gibt es noch 1000 Möglichkeiten, wie Dinge schief gehen, an die noch niemand von uns gedacht hat.

Und für mich persöhnlich müsste es endlich bessere Treiber für OpenGL/DX6.1-11 geben....ich spiele einfach zu viele neue und alte Spiele durcheinander und will mich da einfach nicht mehr so oft ärgern.

Navi hat sich ja nicht schlecht verkauft und war auch von der Hardware ein gutes Produkt....aber AMD müsste hier die Leistung der 5700XT verdoppeln....ohne die Leistungsaufnahme zu verdoppeln...für mich einfach unrealistisch....denn wie wahrscheinlich ist es, dass einfach alles glatt und nach Plan von AMD läuft?

Wir werden sehen. :)
 
  • Gefällt mir
Reaktionen: Sun-Berg und Maggolos
  • Gefällt mir
Reaktionen: Onkel Föhn, SVΞN und bad_sign
domian schrieb:
Ich bleibe dabei, irgendetwas ist nicht stimmig. Denn wenn Big Navi wirklich so gut wird, täte AMD gut daran mal ein paar Benches zu leaken, damit diejenigen die jetzt auf eine 3080 geiern einfach warten.
Das kann man so sehen, muss es aber nicht.

Es gibt jetzt hier einige Szenarien, die möglich sind und @.Sentinel. ehrlich gesagt, denkst du hier auch zu »klassisch«.

.Sentinel. schrieb:
Der Markt funktioniert anders. Wenn ich was starkes habe, lasse ich die Konkurrenz präsentieren und lasse 5 Minuten nach deren Präsentation und Preisfestlegung die genüsslich Bombe platzen.
Ach, SO funktoniert der Markt? Ich denke eher: In dem Fall würdest du so handeln. Ich kenne einige mittelständische Firmen, die genauso eben nicht handeln, weil man sehr schnell auf die Fresse fliegen kann und AMD ist genau mit so einem Verhalten in der Vergangenheit öfters mal auf die Fresse geflogen.

Sowohl mit Hawaii, Furry als auch Polaris und erst recht mit Vega. Bei jedem dieser Releases haben sie relativ früh auf NVIDIA reagiert und gesagt: Wartet bis wir was haben. Bei Hawaii und Furry stimmte es "bedingt", denn die Karten waren zwar nicht schlecht, aber es war durchwachsen und die Leute waren enttäuscht. Bei Polaris waren die "Hoffnungen" auch groß und es kam zwar keine schlechte Karte, aber doch der Ast war durch aggressives Marketing angesägt und der Werbe-Fachmann - der nun bei Intel arbeitet - samt Koduri haben diesen Ast mit Vega vollkommen zersägt.

AMD hat sich durch deine, hier als »klug« hingestellte Marktsing-Strategie in den letzten Jahren einige blaue Augen sowie Backpfeifen abgeholt.

.Sentinel. schrieb:
Somit handelt AMD, wenn sie tatächlich einen AMD Killer hätten, alles andere als klug.
Das ist deine Meinung. Ich habe sowohl im Studium - Wahlpflichtfach - als auch in der Praxis gelernt, dass es manchmal klüger ist seine Karten erst auf den Tisch zu legen, wenn man so weit ist. Oder anders ausgedrückt: Statt durch große Worte auf die Kacke zu hauen, lass das Produkt auf die Kacke hauen.

Und da kommt der nächste Punkt: Viele die jetzt NVIDIA-Hardware kaufen, würden keine AMD-Hardware kaufen, selbst wenn sie jetzt Benchmarks der 6900 XT heraushauen und die für 699,- so schnell wäre wie die 3090.

Und ja, du erkennst in deinen späteren Beiträgen richtig: Die meisten kaufen zu einem Zeitpunkt X und nehmen dass, was auf dem Markt ist. Du lieferst also in deinem Beitrag #557 also bereits ein Argument, warum AMD eben kein wirkliches Störfeuer zum Launch von NVIDIA bringen muss.

Und das wichtigste Argument ist folgendes - auch wenn es im Text von mir schon versteckt ist: AMD gewinnt nichts, wenn sie jetzt hohe Erwartungen an RDNA2 schüren. Sie verlieren eher mehr, wenn der Start dann nicht reibungslos verläuft.

Ganz im Gegenteil: AMD kann mit einem überraschenden und positivem Ergebnis Ende Oktober sogar viel eher überzeugen.

Taxxor schrieb:
Irrtum, wir schauen auf die Rechenleistung, wir vergleichen nur nicht Nvidia mit AMD sondern AMD mit AMD.
Rechenleistung ist eh immer komplex zu vergleichen, weil es auf die Feinheiten ankommt.

Taxxor schrieb:
Die Art wie Nvidia den Shadercount pro SM auf 128 erhöht hat, gibt ihnen halt sehr viel mehr theoretische Rechenleistung, die sie im Gaming aber nicht ansatzweise so gut abrufen können, wie es Turing konnte.
Wobei man sagen muss, dass die Art sich jetzt im groben Aufbau nicht mehr wirklich unterscheidet. Sowohl CU (AMD) als auch SM (NVIDIA) benötigen nun 2 Befehle um ihre ALUs effektiv auszulasten. Nur die benötigte Anzahl an Werten unterscheidet sich halt jetzt: CU 32 pro Befehl, SM 64 pro Befehl.

Genau bei diesen 32 bzw. 64 Werten liegt dann für NVIDIA mit Ampere aber auch etwas dir Crux begraben.

Taxxor schrieb:
30 TFLOPs klingen aber gut fürs Marketing und man liest ja auch hier und da schon von Leuten, die jetzt meinen die 3080 wäre 3mal so stark wie die PS5 weil die ja nur 10 TFLOPs hat.
Das ist das Problem, wenn alle immer nur auf die nackten Zahlen schauen. Einer der Gründe, warum ich z.B. jedes Mal, wenn ich auf der GameStar ein Artikel der Hardware-Redaktion am liebsten mein Kopf gegen den Tisch donnern will. Zahlen sind toll, aber hier gibt es soviel mehr zu beachten.

Taxxor schrieb:
Bei AMD steht sowas mit RDNA2 halt nicht an, daher kann man hier auch die TFLOPs von RDNA1 auf RDNA2 hochskalieren inkl entsprechender IPC Erhöhung.
Wobei man hier etwas aufpassen muss. Die theoretische Rechenleistung hängt nicht unbedingt mit der IPC zusammen und genauso wenig anders rum.

Känguru schrieb:
Da bei Ampere die verdoppelten FP32-Recheneinheiten bei gleichzeitigen Integer-Berechnungen nicht uneingeschränkt zur Verfügung stehen, kommen aktuell nur 60% der zusätzlich möglichen TFLOPS am Ende raus.
Bei Integer-Berechnungen stehen die zusätzlichen ALUs ohnehin nicht zur Verfügung, da sie vollkommen blockiert werden, egal wie viele INT-Werte berechnet werden müssen. Es ist dabei egal, ob dann 64 INT-Werte berechnet worden, 32, 16 oder nur 8, der 64er-Block ist reserviert dafür.

Känguru schrieb:
Es kann allerdings gut sein, dass durch Optimierung der Software hier in Zukunft noch mehr drin ist, indem Integer- auf FP-Berechnungen umgestellt werden. Das wird man sehen...
Das Umstellen von Integer-Berechnngen auf FP-Berechnungen wird hier alleine nur nichts bringen, denn es müssen dann immer noch genug Werte ankommen, die auf die beiden logischen ALU-Blöcke bei Ampere verteilt werden müssen.

NVIDIA hat aktuell bedingt mit Ampere ein ähnliches Problem wie AMD es mit GCN hatte: Sie müssen die SM auch entsprechend auslasten können. Bei AMD war damals das Problem, dass sie zwar oft "genug" Werte für die CU bekommen konnten, aber nicht genug »Threads« auf die CU loslassen konnten. NVIDIA hat mit Ampere nun das Problem, dass sie zwar genug Threads darauf loslassen können, aber nicht genug Werte haben um jeden Thread optimal auszufüllen. Das hat sich ja »bedingt« schon bei Turing gezeigt, da sich ein Großteil der INT-ALUs gelangweilt haben.

RDNA und RDNA2 braucht pro CU 2 Threads zur optimalen Auslastung mit 32 Werten. NVIDIA braucht bei Ampere pro SM 2 Threads mit 64 Werten, ganz unabhängig vom Workload der anliegt.

Man wird hier mit Software durchaus noch was machen können, aber am Ende ist es abhängig, wie viele Werte wirklich kommen und das kann man nicht wirklich beeinflussen, das hängt vom "Bild" ab.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Colindo, downunder4two und 3 andere
Satan666 schrieb:
restlos ausverkauft
Etwas das momentan nachproduziert wird, kann nicht restlos ausverkauft sein.
Es werden täglich tausende neue Karten produziert und auf den Markt gebracht.
 
  • Gefällt mir
Reaktionen: konkretor und Apocalypse
Bluto schrieb:
Das liest sich extrem gut. Hoffentlich kühlen die das nicht wie zuletzt AMD-Style bei knapp 60 Dezibel (siehe Radeon VII).

Dann nutze ich den Umstand der Nichtverfügbarkeit der neuen RTX-Karten mit warten auf AMD.
Das Leak-Foto hat 3 Propeller!
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
  • Gefällt mir
Reaktionen: SVΞN und nospherato
Wadenbeisser schrieb:
Die VII hat einen angegebenen Boost Takt von 1750 MHz, im Test erreichte sie bis zu 1780 MHz.
Nein, die hatte bei Vorstellung einen angegebenen Maximaltakt von 1800MHz und 300W TDP ....und sie hat eher 1730-1780MHz erreicht.

Und irgendwann Mitte 2019-Anfang 2020 wurde sie per Treiber auf 250W TDP begrenzt.....und AMD hat später den typischen Boost Takt in ihren Angaben ergänzt.(die geänderte TDP haben sie nicht ergänzt)

Bei den Gerüchten zählt für mich eher was damals im Vorfeld versprochen wurde, und das waren 1800MHz...die wurden nicht erreicht....und wenn jetzt von 500 – 2.050 MHz gesprochen wird, dann gehe ich davon aus, dass die 2050MHz kein typischer Boost, sondern der nicht erreichte maximale Takt sein wird.

Geht man von einer ähnlichen prozentualen Abweichung aus, wären es immer noch 1993MHz....Da könnte man nicht meckern....aber das erreichen die besseren Partnerkarten der 5700XT auch, und ihr Leistungszuwachs gegenüber dem Referenz Design, ist mit 4% entäuschend.
Doppelte CUs werden die Leistung nicht verdoppeln(das zeigt die Erfahrung mit anderen Grafikkarten)....Takt ist ähnlich....die IPC muss es richten.....kann sie das, ist das toll...kann sie es nicht, oder nur in manchen Spielen, ist das schlecht.
 
  • Gefällt mir
Reaktionen: Benji21
nospherato schrieb:
Nur als Spekulation nehmen, nicht alles für Fakten nehmen.
Vor Allem die 6GB bei der 6700XT scheinen unglaubwürdig.

Ich kann mir vorstellen, dass Navi21 den spekulierten Infinity Cache bekommt und Navi22 nicht.

Dann bekäme die 6700XT 8GB und 256bit, aber ohne den Cache, während die 6800XT mit 60CUs 12GB bei 192bit und de 6900XT mit 80CUs 16GB bei 256bit bekommt, aber jeweils mit dem Cache.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, konkretor und SVΞN
wern001 schrieb:
Das amd teil ist echt nicht der Hit. Bei feinen Farbverläufen kommt es des öfteren zu Tonwert abrissen. Egal was man einstellt geht nicht weg.
Wann hast Du die denn das letzte mal ausprobiert? Doch wohl nicht 2014 in Version 1.0? ;)
 
  • Gefällt mir
Reaktionen: Tawheed und Apocalypse
Inxession schrieb:
Und reibungslos funktionieren tun Sie auch nicht ...

Das ist pauschaler Krampf, die meisten Karten funktionieren völlig reibungslos, ansonsten hätten die Reviewer das lange bemerkt, insbesondere bei der FE und den anderen Customkarten.

Inxession schrieb:
Jetzt ist Sie da .. verbraucht ~400 Watt und wird trotzdem als Effizienz Monster hochgelobt.

Also 320 Watt sind keine 400 Watt und die Effizienz ist dennoch am höchsten, gerade unter RT Workloads oder Pathtracing ist sie 30% über Turing und das trotz des ausquetschens.

Inxession schrieb:
Also mein eh schon ziemlich angeknackstes Vertrauen in nVidia, wurde durch den Ampere Launch quasi auf 0 gedrückt.

Die Founders Editionen laufen wegen besserem Binning doch optimal.
Die Probleme die es momentan gibt, werden relativ schnell gefixed werden und gut.
 
abgesehen von der breite der speicherinterfaces ist das bild welches sich abzeichnet, recht stimmig.
ich glaube amd hat da noch irgendein knoiff im ärmel um die "nur" 192bit bei navi22 zu kompensieren, anderenfalls sind die speichrbandbreiten sehr niedrig um die 40cu auch zu füttern.
das gleich gilt auch für die navi21.

aber ich lasse mich hier bei eines besseren belehren - wenn amd damit eine entsprechende performance aufs parkett bringt, ist es wumpe wie das speicherinterface aussieht...
 
  • Gefällt mir
Reaktionen: Apocalypse und Baal Netbeck
B.L. Swagger schrieb:
@Kacha
Geht laut MS aber wohl nicht und man muss abwegen wieviel man für RT nutzt und Rasterisierung.
Ausser du willst jetzt auch sagen MS hat keine richtige RDNA2 GPU ;)

Das ist bei NV nicht anders, während der RT Kern die Strahlenberechnung macht, wartet der
zugewiesene Shader auf das Resultat und setzt das dann um. In der Zeit des Wartens kann der Shader
keine Rasterisierung machen.
Daher kein Vorteil bei NV, im Gegenteil, sie brauchen durch die RT Kerne mehr Fläche, was
AMD direkt in der CU mit der ALU abhandelt.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech und Benji18
Teralios schrieb:
Das ist deine Meinung. Ich habe sowohl im Studium - Wahlpflichtfach - als auch in der Praxis gelernt, dass es manchmal klüger ist seine Karten erst auf den Tisch zu legen, wenn man so weit ist. Oder anders ausgedrückt: Statt durch große Worte auf die Kacke zu hauen, lass das Produkt auf die Kacke hauen.

Ok toll, jetzt wissen wir alle das du studiert bist :streicheln: , Glückwunsch. Für diese Erkenntnis ist es aber nicht erforderlich.

Abgesehen davon haut AMD verbal in den sozialen Medien sehr wohl auf die Kacke. Deshalb bin ich weiterhin der Meinung, sie sollten etwas handfestes präsentieren.
 
:mussweg:
Boost-Takt2.050 MHz2.200 MHz2.500 MHz

Heißt es dann bald?
Ich bin Hochleistungsgamer und brauche qualitativ hochwertige Hochleistungshardware. RTGs massive Hochfrequenzkerne sind genau das was Gamer wie ich brauchen!:lol:

Mal schauen was AMD dann tatsächlich auf die Beine stellt, ende des Jahres kommt auf jeden Fall neue Hardware in den Rechner. Nach dem Nvidia launch Fiasko lohnt sich warten auf jeden Fall. Wer es dann sein wird entscheide ich wenn alle Karten auf dem Tisch liegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji21, mydayyy, s0UL1 und 7 andere
Zurück
Oben