News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Gonzo28 schrieb:
Die Reiseportale können das sehr gut, wäre ja auch zu schön, wenn plötzlich 1.000 Leute für ein 200 Sitzplätze-Flugzeug gebucht hätten.
Und die Reiseportale haben genau um xx Uhr einen Ansturm von mehreren Tausend zur gleichen Zeit? :rolleyes:
Es geht hier schließlich darum, dass eine ungewöhnlich hohe Belastung in kurzer Zeit diese Probleme verursacht hat, und nicht um kleckerweise Urlaubsbuchung. Normale Last können diese Warensysteme eigentlich super verarbeiten, noch nie eine nachträgliche Stornierung gehabt, selbst bei Produkten, wo nur wenige Exemplare auf Lager waren. 1000 Leute sollten noch nicht das Problem sein.
Ohne jetzt die Händler in Schutz zu nehmen, da es trotz hoher Nachfrage auch möglich sein sollte, eine Überbuchung zu meiden, ist das Beispiel mit einer Reise eben was anderes. Viel mehr passt da ein Ticketverkauf von großen Konzerten bzw ganze Touren, wo eine hohe Nachfrage direkt zu Beginn des Verkaufs besteht (Wie letztes Jahr bei Rammsteins Stadium-Tour. Überlastung, Warteschleifen bei Ticketkauf, eine Stunde hinge ich da drin, durchschnittlich mehr als 40.000 Karten pro Veranstalltung und nach nich einmal zwei Stunden war es vorbei.)
 
Zuletzt bearbeitet:
Die Überschrift wünsche ich mir am 28.10. von @Wolfgang :daumen:

1601376638370.png
 
  • Gefällt mir
Reaktionen: Cpt.Willard, russianinvasion, iron-man und 3 andere
Taxxor schrieb:
Ja, die Prioritäten sind da schon manchmal merkwürdig gesetzt.
......
Vielleicht versteht AMD unter Grafik auch was völlig anderes.

Übrigens.
AMD Schnitzeljagd.jpg
Es ist alles unübersichtlich und nicht intuitiv. Das ist übrigens ein komplett frisch aufgesetzter RadeonPro Enterprise Treiber mit der Hoffnung auf Fehlerfreiheit gewesen, wenn man auf der AMD Webseite auch diese Treiberkompatibilität erhält und für die wichtigen und in die Augen springenden Versionshinweise muss man erst "mehr Details" aufklappen. Drückt man auf Versionshinweise, öffnet der AMD Browser Google mit "not Available" als Ergebnis. Warum muss ich über den Treiber unter "Einstellungen->System" auch noch AMD Produkte kaufen können? Die Treiberkonfiguration ist ein technisch, überladener Müllhaufen, wenn auch noch neue Einstellungsschalter mit einfachen Piktogrammen aufploppen und man mit der Maus über den ganzen Bildschirm muss. Auch die integrierte Suchfunktion reagiert wie manch Online Eingabeformular, wo einzelne Tastatureingaben übersprungen werden, bis die AMD Suchdatenbank komplett geladen ist.

Wenn die Priorität beim Treiber bis jetzt so niedrig ausfällt, wird gut umgesetzte Hard-, und Software auf Radeon Karten lange auf sich warten lassen.

AMD sollte bei der RDNA 2 Vorstellung tatsächlich auch die Treibermenüoberfläche im Einklang komplett überarbeitet vorstellen.
Ich zum Beispiel brauche keine Gaming Metriken, aber wenn man es schafft die Favoritenliste mit "Günstig" und "ungünstig" anstatt mit "beliebt" oder "Favorit" zu übersetzen, ist das nur noch billig und nicht mehr günstig.
 
  • Gefällt mir
Reaktionen: Muxxer, Benji18 und Snakeeater
[/QUOTE]
Gonzo28 schrieb:
Doch, lässt es sich.
Die Reiseportale können das sehr gut, wäre ja auch zu schön, wenn plötzlich 1.000 Leute für ein 200 Sitzplätze-Flugzeug gebucht hätten. Ich glaube aber, dass das nicht gewollt ist. Eine Reise kann man nicht zum gleichen Zeitpunkt und gleichen Abflugort trotzdem verkaufen. Bei Hardware wird es viele geben, die dann eben warten und das Geld kommt trotzdem beim Verkäufer an.

Deshalb sind auch dauernd Flüge und Htoels überbucht XD
https://www.spiegel.de/reise/aktuel...-der-urlaubsflug-ueberbucht-ist-a-500157.html
 
@Der Nachbar

Was wolltest du angesichts des ellenlangen Textes überhaupt wissen? Oder besser ausgedrückt, wo wolltest du im Treiber überhaupt hin?

Die Versionsübersicht war beim Radeon Pro Treiber schon immer etwas anders, bei mir schaut die Übersichtsseite des normalen Desktop Treibers beispielsweise so aus.
Treiber.PNG

Oder diente es jetzt nur dazu dich darüber auszulassen das AMDs Treiberoberfläche nicht wie nvidias in der Zeit stecken geblieben ist?
 
  • Gefällt mir
Reaktionen: Kodak, Teralios und baizer
ampre schrieb:
Deshalb sind auch dauernd Flüge und Htoels überbucht

Das hat ganz andere Gründe!

Bei Flügen geht man davon aus, dass manche Gäste den Flug gar nicht wahrnehmen werden und bei Business Flügen sind "Flex" Tickets üblich, jederzeit umgebucht werden können. So bekommt man als Fluggast manchmal ein Upgrade oder mit viel Pech ist der Flug dann überbucht. Leere Sitze werden dann noch mit Standby Fluggästen aufgefüllt, wenn eine Nachfrage danach besteht.
https://www.expedia.de/explore/reiselexikon-standby-ticket

Hotels werden überbucht, wenn das Hotel verschiedenen Reiseanbietern Kontingente gewährt, die es vollständig gar nicht erfüllen könnte. Hier läuft es dann durchaus ähnlich wie bei den Vorbestellungen ab.

Nehmen wir man an Alternate, Caseking und Notebooksbilliger kriegen von Ingram Micro 500 GPUs zugesagt, Ingram selbst bekommt aber selbst nur 1000. Bei einem Run auf einen Artikel gehen die Shops von der vollen Liefermenge aus und nehmen Vorbestellungen an, wenn sie die Bestellung aber nun an die Distribution weitergeben wollen, ist dort irgendwann Schluss und die Vorbestellungen müssen storniert werden.

Im Grunde genommen läuft im Hintergrund bei solchen Shops eben meist Mist ab und "Lieferbar in 1-2 Tagen" bedeutet immer, man hat es selbst gar nicht und muss es erst bei Distributor ordern. Je kleiner ein solcher Laden ist, desto weniger wird selbst gelagert und desto unzuverlässiger sind solche Aussagen was die Lieferbarkeit anbetrifft.

Einzig riesige Läden wie Amazon, haben die Ware meist wirklich im Lager, wenn dort "Lieferbar" gemeldet wird, aber auch hier klappt es eben auch nicht immer.
 
catch 22 schrieb:
Oder die Wimpel die @GerryB in seinem Beitrag erwähnt, was wäre, wenn es 3 rote und 5 blaue sind und man später erfährt, dass deren Anzahl und Farbe ein Code sind, mit dem man eine Tür öffnen soll, man aber wegen einer KI Lösung wie DLSS, oder etwas vergleichbaren von AMD, dann 5 rote und 6 blaue zählt?
Solche Dinge würden beim Testen des Spiels auffallen.
Ergänzung ()

voerden schrieb:
RDNA2 = TSMC
nvidia 3000er serie = Samsung
Der Himmel ist blau.
 
  • Gefällt mir
Reaktionen: iceshield
256bit-Interface+GDDR6 (ohne X) bei 5120 ALUs wäre dünn.... Das riecht stark nach Bandbreite-Limitierung, da die GPU Leistung mit Nvidia sein könnte, falls sich Takt und Anzahl der Shader Bewahrheiten (Auch die 3090 hat strenggenommen nur 5248 ALUs, einen ähnlichen "Trick" traue ich AMD durchaus zu).
Der Referenzkühler sieht aber auch hier vernünftig aus! Offenbar haben die Hersteller wirklich dazu gelernt.

Hoffen wir das es Reicht! Nvidia ist gut aber nicht unschlagbar. Performance/Watt der 3000er ist im Vergleich zu meiner 1080 nur etwa 50% höher, das beweist: Auch Nvidia kocht nur mit Wasser.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Wenn das Ding 3080 Leistung bringt UND ähnlich gute Streaming / Recording Technik verbaut bekommt wie die Geforce RTX Karten, dann bin ich auch dabei.
 
  • Gefällt mir
Reaktionen: Thorque
Zum Thema Überbuchung:
Studienplätze wurden bei uns damals mit dem Faktor 8 überbucht. Und trotzdem gab es kurz darauf eine Nachrückerrunde.
 
Der Nachbar schrieb:
Es ist alles unübersichtlich und nicht intuitiv.
Das ist in dem Fall aber auch erst mal deine eigene Meinung. …

AMD bietet für alle Funktionen ihrer GPUs eine GUI an. Diese ist, in meinen Augen, relativ gut aufgeräumt und übersichtlich und Querverweise sind sogar gut gesetzt worden. Alle relevanten Informationen werden mir direkt angezeigt, die relevanten Einstellungen erreiche ich im Schnitt mit zwei Klicks. Was man bemängeln kann, in meinen Augen, ist nur, dass der Reiter für die Einstellungen - Zahnrad - besser auf der Linken-Seite als »Einstellungen« aufgehoben wäre, statt eben das Zahnrad. Da aber passend Querverweise gesetzt sind, ist die GUI intuitiv zu bedienen.

NVIDIA wiederum muss man heute zwei Programme verwenden, wie bei AMD sind wichtige Informationen in beiden GUIs maximal über zwei Klicks erreichbar, nur ist eben nicht immer klar, welches Programm nun für welche Einstellung zuständig ist.

AMDs Treiber GUI ist durchaus noch Verbesserungswürdig, nur NVIDIA hat hier etwas mehr zu tun, was die GUI angeht, denn die Trennung zwischen "Treiber" und "GeForce Now" ist alles andere als wirklich intuitiv. Will ich was »global« einstellen, muss ich in die alte Treiber-GUI, will ich etwas für das Spiel einstellen, ist es GeForce Now und sind es spezieller Sache, muss ich sogar noch auf Drittanbieter-Programme zurückgreifen. …


Wadenbeisser schrieb:
Oder diente es jetzt nur dazu dich darüber auszulassen das AMDs Treiberoberfläche nicht wie nvidias in der Zeit stecken geblieben ist?
Ich glaub eher, dass es das normale »Meckern« ist, wie doof doch alles ist und früher war alles besser, ohne dass man wirklich mal darüber nachdenkt.

Die AMD Treiber GUI verbindet ja im Endeffekt alle relevanten Einstellungen »rund um die GPU«. Sei es Einstellungen, die die GPU selbst betreffen, die Spiele betreffen oder eben das Drumherum - Streaming, Overlay usw. Bei NVIDIA braucht man dafür mindestens die beiden GUIs von NVIDIA selbst und bei bestimmten Einstellungen noch den Inspector gleich mit.

Aber am Ende kann man mit beiden umgehen.


M1ximili1n schrieb:
256bit-Interface+GDDR6 (ohne X) bei 5120 ALUs wäre dünn.... Das riecht stark nach Bandbreite-Limitierung, da die GPU Leistung mit Nvidia sein könnte, falls sich Takt und Anzahl der Shader Bewahrheiten (Auch die 3090 hat strenggenommen nur 5248 ALUs, einen ähnlichen "Trick" traue ich AMD durchaus zu).
Nein, AMD braucht diesen »Trick« nicht, da ihre CU nun WGP seit GCN recht flexibel sind und sowohl INT- als auch FP-Berechnungen zur gleichen Zeit durchführen konnten und daher so ein Trick wie NVIDIA mit Turing durchführte, nicht notwendig war.

Wenn man es »fies« sagen will, hat NVIDIA erst jetzt mit GCN/RDNA gleichgezogen, was gemischte »Workloads« auf der GPU angeht und ist dabei immer noch »weniger« flexibel.
 
  • Gefällt mir
Reaktionen: aldaric, Kodak und M1ximili1n
Teralios schrieb:
Das ist in dem Fall aber auch erst mal deine eigene Meinung. …

AMD bietet für alle Funktionen ihrer GPUs eine GUI an. Diese ist, in meinen Augen, relativ gut aufgeräumt und übersichtlich und Querverweise sind sogar gut gesetzt worden. Alle relevanten Informationen werden mir direkt angezeigt, die relevanten Einstellungen erreiche ich im Schnitt mit zwei Klicks. Was man bemängeln kann, in meinen Augen, ist nur, dass der Reiter für die Einstellungen - Zahnrad - besser auf der Linken-Seite als »Einstellungen« aufgehoben wäre, statt eben das Zahnrad. Da aber passend Querverweise gesetzt sind, ist die GUI intuitiv zu bedienen.

NVIDIA wiederum muss man heute zwei Programme verwenden, wie bei AMD sind wichtige Informationen in beiden GUIs maximal über zwei Klicks erreichbar, nur ist eben nicht immer klar, welches Programm nun für welche Einstellung zuständig ist.

AMDs Treiber GUI ist durchaus noch Verbesserungswürdig, nur NVIDIA hat hier etwas mehr zu tun, was die GUI angeht, denn die Trennung zwischen "Treiber" und "GeForce Now" ist alles andere als wirklich intuitiv. Will ich was »global« einstellen, muss ich in die alte Treiber-GUI, will ich etwas für das Spiel einstellen, ist es GeForce Now und sind es spezieller Sache, muss ich sogar noch auf Drittanbieter-Programme zurückgreifen. …



Ich glaub eher, dass es das normale »Meckern« ist, wie doof doch alles ist und früher war alles besser, ohne dass man wirklich mal darüber nachdenkt.

Die AMD Treiber GUI verbindet ja im Endeffekt alle relevanten Einstellungen »rund um die GPU«. Sei es Einstellungen, die die GPU selbst betreffen, die Spiele betreffen oder eben das Drumherum - Streaming, Overlay usw. Bei NVIDIA braucht man dafür mindestens die beiden GUIs von NVIDIA selbst und bei bestimmten Einstellungen noch den Inspector gleich mit.

Aber am Ende kann man mit beiden umgehen.



Nein, AMD braucht diesen »Trick« nicht, da ihre CU nun WGP seit GCN recht flexibel sind und sowohl INT- als auch FP-Berechnungen zur gleichen Zeit durchführen konnten und daher so ein Trick wie NVIDIA mit Turing durchführte, nicht notwendig war.

Wenn man es »fies« sagen will, hat NVIDIA erst jetzt mit GCN/RDNA gleichgezogen, was gemischte »Workloads« auf der GPU angeht und ist dabei immer noch »weniger« flexibel.

Danke für die Info, das wusste ich nicht. Dann wären das nach "Nvidia-Logik"10280 ALUs für die RX6900, was die Essenz meiner Aussage demnach affirmiert, eben nur das ich den Sachverhalt verkehrt herum gesehen habe....
 
@Teralios

Wenn man nur mal auf den Reiter "Home" geht anstatt gleich auf die Seite der Einstellungen zu hopsen ist es sogar noch etwas einfacher, hier mal als Beispiel von einem anderen Rechner.
Home.JPG

Von dort aus kommt man im grunde genommen auf alle Unterpunkte die man im Alltag so gebrauchen kann.
Beim Reiter "Gaming" kann man Einstellungen für die Grafikeinstellungen oder die Anzeige vornehmen, allgemein oder für jedes aufgeführte Spiele Profil für sich.
Bei Reiter "Leistung" kann man sich wiederum verschiedene Parameter anzeigen lassen und kann sich damit auch das eine oder andere Monitoring Tool sparen.

Schon sind wir dann bei der Frage warum die Aufteilung nicht intuitiv sein soll.
Sie ist eben anders, mehr aber auch nicht und das man etwas nicht gleich findet wenn es nicht wie gewohnt abgelegt ist sist jetzt auch nichts Neues. Das ist einfach nur Umgewöhnung. Ich muss auch jedes mal auf die Suche gehen wenn ich etwas im Geforce Treiber umstellen will weil ich einfach einen anderen Aufbau gewöhnt bin.

Schon klar das die angesprochenen Punkte nicht von dir kamen, das war einfach nur beispielhaft aufgeführt. :)
 
@M1ximili1n
nein, nach NVIDIA-Logik wäre es bei AMD weiterhin nur 5120 ALUs. Das liegt am Aufbau der CU bei AMD seit GCN und nun eben RDNA2.

Auch ist es bei NVIDIA kein Trick, wie man nun auf die 10752 Shader beim GA102 kommt, weil diese ALUs sind wirklich vorhanden, genau so wie bei AMD die 5120 ALUs wirklich vorhanden sind.

Es geht hier dabei, wie die ALUs organisiert werden. Bei AMD hatte zu GCN-Zeiten jede CU nominell 64 ALUs, die sich auf 4 Vecktor-ALUs aufgeteilt haben. Jede der 4 Vektor-ALUs konnte 16 Werte aufnehmen (Vec16). Jede dieser Vec16-ALUs konnte dabei mit einem eigenen Befehl angesprochen werde. Zum Beispiel kann bei Vega eine Vec16-Einheit ein ADD auf INT-Werte berechnen, während die zweite Vec16-Einheit ein MUL auf FP-Werte berechnet, die dritte dann ein SUB auf FP-Werte und die Vierte ein ADD auf FP-Werte. Diese Flexibilität hat dazu geführt, dass GCN als ganzes, nur schwer ausgelastet werden konnte. Es gab/gibt zwar alternative "Modi", diese funktionieren aber nicht wirklich. Bei RDNA und nun RDNA2 hat AMD die CU umgebaut und die 4 Vec16-ALUs durch 2 Vec32-ALUs ersetzt. Jede CU kann bei RDNA und RDNA2 zwei voneinander unabhängigen Befehle ausführen. Eine Vec32 berechnet z.B. ein SUB auf INT-Werte, die andere Vec32 ein MUL auf FP-Werte. (Deswegen hat AMD bei GCN stärker von Asynchronen-Shadern profitiert als NVIDIA bis einschließlich Pascal)

NVIDIA war es bisher so, dass auf einer SM nur ein Befehl ausgeführt werden konnte und dieser Befehl sich über alle 128 ALUs (Maxwell und Pascall) erstreckte. Bei Turing hat NVIDIA diese 128 ALUs in zwei Blöcke geteilt a 64 ALUs und dabei einen Pfad »exklusiv« für INT reserviert. Seit Turing kann jede SM zwei voneinander unabhängige Befehle ausführen, aber mit der Fixierung, dass einer der beiden Befehle nur INT-Werte berechnen konnten. Deswegen wurde bei Turing auch nur die 64 Shader pro SM angeben, obwohl es eigentlich immer noch 128 waren. (Deswegen profitierte Turing auch von Async-Shader bereits »besser«).

Bei Ampere hat man nun diesen bisher fixierten INT-Block auch für FP-Berechnungen geöffnet. Bei Ampere kann jede SM - wie bei Turing - 2 Befehle zur gleichen Zeit ausführen. Der erste 64er-Block führt ein SUB auf FP aus, der zweite 64er-Block ein MUL auf FP. Das war bis Ampere eben nicht möglich, wäre so etwa gekommen, hätte alles bis jetzt bei NVIDIA 2 "Takte" benötigt, jetzt gehts eben zusammen.

Oder um dir das vereinfacht darzustellen, was zur gleichen Zeit pro CU oder SM möglich ist:
OperationenGCNRDNAPascalTuringAmpere
ADD(FP)JaJaJaJaJa
ADD(INT)JaJaJaJaJa
ADD(FP) + ADD(INT)JaJaNein (2 »Takte«)JaJa
ADD(FP) + MUL(FP)JaJaNein (2 »Takte«)Nein (2 »Takte«)Ja
ADD(INT) + MUL(INT)JaJaNein (2 »Takte«)JaJa

Der Unterschied einer NVIDIA SM zu einer AMD CU liegt nun daran, wie viele Werte pro Befehl berechnet werden können. Bei AMD können pro Befehl 32 Werte berechnet werden (muss mal den Alternativ-Modus noch testen), bei NVIDIA sind es 64 Werte pro Befehl und da liegt dann auch die Crux etwas begraben für NVIDIA und ist auch der Grund, warum selbst in »FP«-lastigen Engines die GeForce 3080 trotz 100 % mehr Shader und 15 % mehr Takt als die 2080 Ti nicht 100% schneller ist, sondern eben nur die 30 %.

NVIDIA muss nun pro SM 2 Befehle mit je 64 Werten füllen, AMD muss pro CU 2 Befehle mit nur 32 Werten füllen und letzteres ist ein Stück »einfacher«. NVIDIA hat mit Ampere im gewissen Sinn ein »Auslastungsproblem«.


Wadenbeisser schrieb:
Wenn man nur mal auf den Reiter "Home" geht anstatt gleich auf die Seite der Einstellungen zu hopsen ist es sogar noch etwas einfacher, hier mal als Beispiel von einem anderen Rechner.
Danke für den Hinweis, das weiß ich aber selbst:
Teralios schrieb:
Da aber passend Querverweise gesetzt sind, ist die GUI intuitiv zu bedienen.

Ich kenne die Querverweise in den Reitern, womit man sehr schnell zu allen wichtigen Einstellungen kommt. ;)
 
  • Gefällt mir
Reaktionen: M1ximili1n, LukS, Taxxor und eine weitere Person
JackA schrieb:
Wenn solche Hype-"Insider"-News über AMD zu gut klingen um wahr zu sein, dann stimmen sie meistens nicht. Das zeigen die letzten Jahre.
https://www.reddit.com/r/Amd/commen.../?utm_source=share&utm_medium=web2x&context=3

from macOS 11 beta
Ich bin auch der Meinung dass Apple gerne hyped.
Aber klar, am Ende muss es nicht so kommen.

ArrakisSand schrieb:
Bei den 22.5 TFLOPs handelt es sich auch um den max. Boost,

1601409823727.png




Das ist die Tabelle, woher die Taktraten stammen. 2050 für Navi 21a, 2200 für Navi 21b, 2500 für Navi22.

https://videocardz.com/newz/amd-navi-21-to-feature-80-cus-navi-22-40-cus-and-navi-23-32-cus
Judging from the frequency listed in the data, we can guess that these correspond to the Radeon Pro series. For instance, the freq_table_gfx[1] (MHz) of Navi 10 is 1400 MHz, similar to Radeon Pro 5700 with a boost clock of 1350 MHz. As we know Radeon RX 5700 XT has a boost clock of 1755 MHz, so what this means it the clock speeds could be even higher. For Navi 23 and Navi 31, the frequencies and power limits are still missing.
Deshalb sollte man die Taktraten als Orientierung nehmen. Die Daten beschreiben Apple Produkte und Apple hat oft eigene Produkte, die sich in Takt und Shader oft auch unterscheiden.

Es kann eben sein, dass Navi a oder b sogar Apple Exklusive mit HBM ist. (Profi Variante)
 
Zuletzt bearbeitet:
GUN2504 schrieb:
Die Überschrift wünsche ich mir am 28.10. von @Wolfgang :daumen:
Das wünsch ich mir auch, bzw. wenn AMD irgendwann (träum weiter... ) ganz oben wäre, dass es andersrum wäre, denn nur so, gibt es Fortschritt, weil man den anderen (oder die anderen Kontrahenten) zwingt zur Entwicklung ... der Verdrängungskampf aber, wenn der begonnen hat, führt zum Rückzug der Kontrahenten - weil es sich nicht lohnt - und somit stagniert die Entwicklung auf lange Sicht ...

Ich wünsch es mir temporär auch und einen guten Schlagabtausch, eine Bewegung im Markt, wie sie lang nicht war.
 
  • Gefällt mir
Reaktionen: GUN2504, iron-man und Verak Drezzt
Wadenbeisser schrieb:
Dann wurde bei der VII der max. Boost Takt aber um 20 MHz verfehlt also etwas über 1% und bei anderen Modellen
Der anliegende Takt hängt stark vom Spiel ab....meiner Erfahrung sind 1780 das obere Ende von dem was sein kann....selbst Wassergekühlt liegt der Takt im GPU Limit eher bei 1730-1780(vor allem nach der nachträglichen Senkung der TDP)...ich gehe daher von 50 fehlenden MHz aus.
Wadenbeisser schrieb:
Des weiteren ist die Erfahrung mit anderen Architekturen recht nutzlos weil es eben andere Architekturen sind die sich anders verhalten können und und deshalb bestenfalls als Anhaltspunkt für Spekulationen dienen können.
Es geht hier um News zu "Gerüchten"....natürlich ist alles zu den neuen Karten Spekulation.
Aber AMD erfindet Treiberseitig ja vermutlich nicht das Rad neu.
Sie passen die Architektur an und haben sie jetzt hoffentlich stärker auf die Anforderungen in Spielen optimiert, aber dabei werfen sie ja nicht alles über Bord, was sie vorher entwickelt haben.
Wadenbeisser schrieb:
Deshalb frage ich mich derzeit auch was du überhaupt willst.
Willst du über einen erreichbaren Boost Takt reden, die Takt Skalierung, die CU Skalierung oder das Wetter?
Darüber, dass ich es trotz (hoffentlich) verbesserter (Spiele)IPC, für unrealistisch halte, dass AMD mal eben die Leistung einer 5700XT verdoppelt....und das ohne eine 400W Karte daraus zu machen.

Und dass die Leute die sich so gerne die TFlops ausrechnen, dafür meist die Angaben von AMD und Nvidia zu deren maximalen Boost Taktraten(oder hier die Gerüchte dazu) verwenden.
Da bei AMD der Takt unterhalb der Angabe bleibt und bei Nvidia darüber hinaus geht, fällt die Rechnung zugunsten von AMD aus, aber die Realität zugunsten von Nvidia.
...und wie du selbst sagtest kann man die Architekturen eh nicht vergleichen.

Aber Rechenleistung muss irgendwo her kommen....und da sehe ich das Ziel(Erwartung der meisten Kommentare hier) die RTX 3080 zu schlagen nur als möglich an, wenn wirklich alles super läuft für AMD:
Baal Netbeck schrieb:
Da muss die IPC wie versprochen stark steigen...sonst wird das auch mit 2GHz und 80CUs nix.(doppelte CUs bei ähnlichem Takt verdoppeln nicht die Leistung)
Da muss die Fertigung nochmal besser geworden sein, damit sowas wie 2GHz+ nicht in einer 400W Karte enden.
Da müssen die Taktraten auch gehalten werden und nicht nur in der Theorie anliegen.
Da muss es ordentlich VRam und VRam Bandbreite geben.(gerade hier sagen die Gerüchte ja ein ziemliches Defizit voraus)
Da muss der Treiber endlich mal zum Start bereit sein.
Da muss der Kühler zur Abwechslung mal keine laute Lachnummer werden...oder wenn er das ist, müssten die Boardpartner schnell eigene Modelle bereit haben.
Da muss die Verfügbarkeit zumindest halbwegs vorhanden sein.
RT muss zum Start auch funktionieren(ja das war bei Nvidia nicht so, aber AMD ist ja auch der Nachzügler).
Und dann gibt es noch 1000 Möglichkeiten, wie Dinge schief gehen, an die noch niemand von uns gedacht hat.

Und für mich persöhnlich müsste es endlich bessere Treiber für OpenGL/DX6.1-11 geben....ich spiele einfach zu viele neue und alte Spiele durcheinander und will mich da einfach nicht mehr so oft ärgern.
Da ich nicht glaube, dass AMD alles hinbekommt, wird entweder die Leistung nur mit der 3070 konkurrieren oder es gibt andere Gründe, warum es nicht das erträumte "Super-Angebot" sein wird.
 
Baal Netbeck schrieb:
Aber Rechenleistung muss irgendwo her kommen....und da sehe ich das Ziel(Erwartung der meisten Kommentare hier) die RTX 3080 zu schlagen nur als möglich an, wenn wirklich alles super läuft für AMD:

Da ich nicht glaube, dass AMD alles hinbekommt, wird entweder die Leistung nur mit der 3070 konkurrieren oder es gibt andere Gründe, warum es nicht das erträumte "Super-Angebot" sein wird.

Also selbst wenn es absolut keine IPC Steigerung gäbe(was nicht der Fall ist) und auch der Takt nicht erhöht werden würde(was nach den Treiber Einträgen auch nicht der Fall zu sein scheint), dann würde eine 80CU Karte, auch mit einer Skalierung von nur 50%, noch über einer 3070 landen können.

Aus meiner Sicht ist die CU Skalierung der einzige Knackpunkt, der entscheidet, ob man über die 3080 kommt oder nicht.
 
Zurück
Oben