News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

VelleX schrieb:
Könnte auch einfach sein dass die Daten im NewEgg Blog von der TechPowerUp Datenbank stammen
Die neueren Werte klingen jedenfalls realistischer. Aber schon anhand der ersten erstellten Daten sieht man ja, dass man auch hier einfach noch im Trüben fischt.

Das Thema Bandbreite würde ich auch nicht vor Tests zu sehr verurteilen. Wir wissen ja nicht, was die Einführung des Infinity-Caches so bringt. Wenn Daten aus den Berechnungen im schnellen Cache zwischengespeichert werden, als immer wieder in den VRAM geschoben zu werden, kann durchaus schon einiges an nötiger Bandbreite einsparen, gerade wenn es dann eher um neue Daten geht.
Dazu sind diese Daten immer noch nicht mit Gewissheit gesichert.
Abwarten auf Tests ist angesagt.


Ich hätte Navi2 eher so gesehen (bzw gerne gehabt):
6500 N23 8GB GDDR6
6700 N22 10GB GDDR6
6800 N21 12GB GDDR6
6900 N21 16GB GDDR6
6900XT N21 16GB HBM
Eine Variante mit HBM basierend auf älteren Gerüchten, dass RDNA2 oder N21 sowohl mit GDDR als auch mit HBM umgehen können soll. Eine Einteilung vom N21 in a und b könnte es sogar stützen. Ob man dann tatsächlich zwei SI im N21 integriert hat, ist aber trotzdem noch Fraglich. Nur eine kleine Spekulation.

Ich spekuliere übrigens relativ gerne, habe dabei aber meist mehr als eine Theorie, die unterschiendlich wahrscheinlich sein könnten. Es schadet auch nicht, dass ich nicht recht habe, bin ja schließlich kein Experte ;)

Allgemein gesehen würde ich die größte Navi2 oberhalb der 2080Ti sehen, mehr oder minder knapp auf 3080 Niveau. RT-Leistung hab ich schon immer nicht auf dem gleichen Niveau von Nvidia gesehen, aber wie RT bei AMD nun genau läuft, werden wir auch erst in Tests wirklich sehen können. Für mich ist RT sowieso noch völlig irrelevant, dauert noch, bist das Thema wirklich wichtig wird. Problematischer sehe ich für AMD eine Alternative gegen Nvidias DLSS zu bringen. DLSS ist propritär und muss auch im Spiel integriert werden. Für eine Alternative auf gleichem Niveau hat AMD weder das Geld für die Entwicklung (Machine-Learning auf Rechenzentren) noch kapazitäten für die Unterstützung für viele Spieleentwickler bei der Integration. Vielleicht gibt es aber eine andere Technik, die zwar nicht auf dem Level von DLSS 2.0 ist, aber sich immerhin sehen lassen kann, eine Art weiterentwicklung von FidelityFX vielleicht?

Auf jeden Fall bin ich neugierig auf die neuen GPUs von AMD und stürze mich mit interesse auf neue Informationshappen und Gerüchten. Vielleicht zieht dann zum Jahreswechsel eine davon sogar bei mir ein.
 
  • Gefällt mir
Reaktionen: Visionmaster, Mcr-King, Cpt.Willard und eine weitere Person
catch 22 schrieb:
Die originalen Texturen in selbst der höchsten Qualität und Auflösung ermöglichten das nicht.
Dann diskutiert Ihr immernoch DLSS1.0. Das hat nämlich noch die Texturen in seinen Berechnungen verwurstet.
DLSS2.0 und DLSS2.1 fasst die Texturen nicht mehr an. Schärfe und Detailgrad bleiben zum Original vollständig unverändert.

1601328704334.png


Balikon schrieb:
Unterschiedliche Ansätze, gleiche Methodik: Upscaling mit Postprocessing.
Upscaling und upsampling sind zwei völlig verschiedene Methoden. Beim Upscaling hast Du, wie Taxxor bereits ausgeführt hast einen niedriger aufgelösten Ursprung, den Du per Algorithmus mal mehr mal weniger ausgeklügelt in ein Bild höherer Auflösung umrechnest.

Im Upsampling nimmst Du so oft Proben der Rasterszene und verrechnest diese so lange mit bereits vorhandenen Ergebnissen, dass Du am Ende eine höher aufgelöste Bildinformation erhältst als die, die Du im Targetframe ursprünglich darstellen wolltest (Supersampling).

Ersteres kann nie in die Nähe der Qualität des nativen Rasterbildes kommen, wohingegen Zweiteres, je nach Anzahl und Auflösung der Proben das native Bild ohne Schwierigkeiten überflügeln kann.
Es ist eher mit DSR zu vergleichen, als mit irgendeinem schnöden Upscaler.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Toni_himbeere, dynastes, baska und 5 andere
xexex schrieb:
Es existieren schon lange Gerüchte, dass es dieses Jahr von AMD nur das Referenzdesign geben wird. Es existieren auch Gerüchte, wonach Sony viele der Chips wegen nicht erreichten Taktraten nicht benutzen kann und auch die gecancelten Vorbestellungen auf die PS5 sprechen nichts gutes.

Nvidia verdient gutes Geld mit ihren professionellen Lösungen die allesamt bei TSMC hergestellt werden,, da wäre für die Gamingchips vermutlich nicht mehr viel zu holen, unendlich sind die Kapazitäten bei TSMC bei weitem nicht und da wird wie überall auch viel nach Außen beschönigt.

Was du nicht alles weiß. Ich kann Dir sagen warum die Shops so viel stonieren. Es gab einfach eine Überwältigende Anfrage. Solch eine Anfrage läuft aber nicht überr einen einzelnen Server sonndern über meherere. Da bei den ganzen Überanfragen die Server sowieso schon überlastet sind, ist auch die Kommunikation zwischen den Servern überlastet, weshalb der eine Server nicht weiß was der andere Server schon verkauft hat, ergo kommt es zur überbuchung die man dann später per Hand stonieren muss. Lässt sich leider nicht vermeiden...
 
  • Gefällt mir
Reaktionen: pipip
catch 22 schrieb:
Oder die Wimpel die @GerryB in seinem Beitrag erwähnt, was wäre, wenn es 3 rote und 5 blaue sind und man später erfährt, dass deren Anzahl und Farbe ein Code sind, mit dem man eine Tür öffnen soll, man aber wegen einer KI Lösung wie DLSS, oder etwas vergleichbaren von AMD, dann 5 rote und 6 blaue zählt?
Haha, ich musste echt lachen, da ich mir vorstellte wie das beim Multiplayer zu lästigen Fata-Morgana-Kills führt... :D

PS, wie ist das eigentlich mit Dlss im onlinegaming? Gibt es da Verzögerungen, sodass es weniger performant ist wie native Auflösung???
 
Cpt.Willard schrieb:
Haha, ich musste echt lachen, da ich mir vorstellte wie das beim Multiplayer zu lästigen Fata-Morgana-Kills führt... :D

PS, wie ist das eigentlich mit Dlss im onlinegaming? Gibt es da Verzögerungen, sodass es weniger performant ist wie native Auflösung???
Ganz im Gegenteil. Meistens gewinnt man mit DLSS deutlich an frames.
Ergänzung ()

GHad schrieb:
Kann ich ja verstehen, aber dieses Doppeldenk kann ich halt nicht ab. Als man bei der Radeon VII mit Undervolting noch was raus holen konnten haben die Grünen alle gelacht nach dem Motto: Also bei NVidia steckt man die Karte rein und die läuft einfach ohne zicken out-of-the box mit perfekter Lesitung... Jetzt ist der Bastlertrieb ja wieder geil wenn's um die eigene Marke geht. Gleiches beim Thema Effizienz, aber egal wurde ja schon durchgekaut.
Undervolten ist auch was anderes als einfach das Powerlimit auf 270w zu senken wenn man es effizienter haben will. Die restlichen Fehler werden eh per Treiber behoben. Aber ich gebe dir Recht. 3080 Leistung mit gleichwertigen Raytracing und DLSS muss um die 100 Dollar günstiger sein sonst kaufen die Leute Nvidia. Denn wenn sich die 300 Watt bestätigen ist sie nicht wirklich Stromsparender. Aber die 300 Watt machen mir Hoffnung auf eine gute Leistung.
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
Vollzitat entfernt.

Du hast recht ich hätte nicht mit dem max. Boost rechnen sollen, allerdings macht das gerade mal ca. 4% aus.
Daher nicht wirklich signifikant und hat keinen grösseren Einfluss auf das Endergebnis.

Laut Test 5700XT (Computerbase)
"In den meisten Spielen arbeitet die Radeon RX 5700 XT mit um die 1.820 bis 1.840 MHz, also um die 150 MHz höher als das kleinere Modell."
2 * 2560 * 1.83GHz = 9370 GFLOPs bzw. 9.37 TFLOPs

Bei den 22.5 TFLOPs handelt es sich auch um den max. Boost, der reale gemittelte Takt in einem größeren Testparcour wird wohl deutlich unterhalb der 2.2 GHz liegen (eher 2 im günstigsten Fall 2.1 GHz)
2 * 5120 * 2GHz = 20500 GFLOPs bzw. 20.5 TFLOPs
2 * 5120 * 2.1GHz = 21500 GFLOPs bzw. 21.5 TFLOPs
2 * 5120 * 2.2GHz = 22500 GFLOPs bzw. 22.5 TFLOPs

Die ominösen +/- 60% Skalierung für die Shader stammen von Vergleichen zwischen der
2070s (2560) / 2080s (3072) mit der 2080ti (4352) mit jeweils einer Skalierung von ca. 70% und einer Prise Salz. Beim Schritt von 2560 auf 5120 ist eher von einer schlechteren Skalierung auszugehen.
Daher würde ich sagen das 60-65% schon als realistisch anzusehen sind.

Auch beim dritten Punkt stimme ich dir zu, das die Differenz zwischen der 5700 und 5700XT zu gering ist um daraus Rückschlüsse ziehen zu wollen. Des Weiteren haben sie auch noch die selbe Speicherbandbreite
was eine weitere mögliche Fehlerquelle darstellen könnte.
Da ist der Vergleich zwischen NAVI10 und 14 viel aufschlussreicher, allerdings können anhand von NAVI 14 (24CU) und 10 (40) nur limitierte Rückschlüße gezogen werden, wie sich die Skalierung bei deutlich mehr (z.B. 80) CU's verhält, da es sich eben bei steigender Shader Anzahl nicht linear sondern stark abflachend verhält.

Bezüglich meiner Berechnung hat Taxxor bereits darauf hingewiesen, das sich abseits der etwas zu hohen TFLOP Angabe für die 5700XT und NAVI 21 noch zwei weitere Fehler eingeschlichen haben:
Das wäre zum einten das man die Skalierungsberechnung bei selben Takt durchführen sollte und erst danach die Taktrate miteinbeziehen sollte und zum anderen habe ich am Ende meiner Berechnung die IPC Steigerung fälschlicherweise mitskaliert. Was zur Folge hatte das die Werte leicht zu tief ausgefallen sind.
Habe es daher nochmals richtig angepasst.
Bei weiteren Fehlern bitte melden!

5700XT (40CU, 1.83GHz) relativ NAVI 21 (80CU, 1.83GHz)
18.74 = 100% (TFLOPs) = 160% (Performance, Skalierung 60% inklusive)
9.37 = 50% (TFLOPs) = 100% (Performance)
18.74 - 9.37 = 9.37 TFLOPS (Differenz in TFLOPS zwischen NAVI 21 und der 5700XT)
(9.37/9.37 = 1.0 bzw. +100% relativ zu den 100% der 5700XT)

100% * 0.6 (60% Skalierung ausgehend von der 5700XT) = 60%
Performance:
60% +100% (I) = 160%
(I) Performance bezogen auf 5700XT (9.37 TFLOPs mit 100% Skalierung)

18.74 TFLOPs bei 100% Skalierung = 200% relativ 5700XT (18.74 / 9.37 = 2.0)
160 / 200 * 100 = 80% Performance (relativ zu 2 x 5700XT mit 100%iger Skalierung), was wiederum einer Skalierung von 60% ausgehend von den 40CU's der 5700XT entspricht.
Was Total 2 x 80% = 160% Performance ergibt.

Die Annahme war das es eine IPC Steigerung von 15% geben könnte.
Beim Takt gehe ich jetzt mal konservativ von den 2.0GHz bzw. falls es doch etwas mehr wird 2.1GHz aus.

Bei 60% Skalierung:
160 % / 1.83 GHz x 2.0 GHz x 1.15 = 2.02
160 % / 1.83 GHz x 2.1 GHz x 1.15 = 2.11

Bei 65% Skalierung:
165 % / 1.83 GHz x 2.0 GHz x 1.15 = 2.07
165 % / 1.83 GHz x 2.1 GHz x 1.15 = 2.18 (ca. auf 3090 level)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ginmarr, Taxxor und Mcr-King
Peacemaker1337 schrieb:

Habe ich mir angesehen und leider (oder wie zu erwarten war) Käse. :D

Der Redakteur der PC Welt sagt, er habe gehört, dass der 5900X mit 5 GHz bei 150 Watt TDP läuft.

Man hört viel wenn der Tag lang ist und umso mehr je näher das Release kommt. Warten wir mal AMDs Ankündigungen am 8. Oktober ab.

Danach sind wir alle schlauer. Unter Lisa Su ist AMD ja eher dafür bekannt, dass wenig nach außen dringt.

Ich kann dir versichern, zum aktuellen Zeitpunkt kennt nur AMD die finalen Taktraten von Ryzen 5000 („Vermeer“), wenn diese überhaupt schon bis auf Komma genau feststehen.
 
  • Gefällt mir
Reaktionen: jemandanders, karl_laschnikow, konkretor und 7 andere
Heut Nachtschicht ? :smokin: Naja nach zwanzig Glaskugelseiten brauch i jetzt erst ma n Kaffee und n Mondkuchen
 
  • Gefällt mir
Reaktionen: konkretor und Mcr-King
.Sentinel. schrieb:
Dann diskutiert Ihr immernoch DLSS1.0. Das hat nämlich noch die Texturen in seinen Berechnungen verwurstet.
DLSS2.0 und DLSS2.1 fasst die Texturen nicht mehr an. Schärfe und Detailgrad bleiben zum Original vollständig unverändert.
Ok, diese Information fehlte mir bisher, von daher fällt dieses kritische Argument bei DLSS zukünftig weg.

Bleibt halt nur noch die Proprietät.
Aber solange ein bereits integriertes DLSS nicht eine vergleichbare (vielleicht auch offene) Lösung von AMD, Microsoft (über DirectX) oder eines Dritten verhindert, die Integration von DLSS oder einer alternativen Technologie in das Spiel nichts kostet, oder ein Spiel exklusiv nur eine bestimmte entsprechende Technologie unterstützt oder gar voraussetzt (so dass nur Grafikkarten mit dieser Technologie das Spiel starten können), sehe ich es außerhalb der Benchmarks erst mal nicht weiter kritisch. Bei Benchmarks bin ich allerdings der Meinung dass zwischen den Werten mit und ohne DLSS / einer entsprechende Technologie klar unterschieden werden muss, was bisher auch der Fall zu sein scheint.
 
  • Gefällt mir
Reaktionen: Mcr-King
catch 22 schrieb:
Microsoft (über DirectX)
Das würde ich bevorzugen. So eine Lösung in den Händen nur eines Anbieters wird immer jemanden benachteiligen. Genauso empfinde ich eine Lösung per ML-Training keine gute Idee. Sowas hat zentral zu sein um möglichst viele Anbieter dazu zu ermutigen, das zu implementieren.
 
  • Gefällt mir
Reaktionen: Benji18 und Mcr-King
Ozmog schrieb:
Ich hätte Navi2 eher so gesehen (bzw gerne gehabt):
6500 N23 8GB GDDR6
6700 N22 10GB GDDR6
6800 N21 12GB GDDR6
6900 N21 16GB GDDR6
6900XT N21 16GB HBM
Eine Variante mit HBM basierend auf älteren Gerüchten, dass RDNA2 oder N21 sowohl mit GDDR als auch mit HBM umgehen können soll. Eine Einteilung vom N21 in a und b könnte es sogar stützen. Ob man dann tatsächlich zwei SI im N21 integriert hat, ist aber trotzdem noch Fraglich. Nur eine kleine Spekulation.
Diese Variante könnte ich mir sehr gut als Antwort auf die spekulierte 3080 (Super/Ti) mit 20 GB vorstellen...
Ergänzung ()

catch 22 schrieb:
Eben das ist es ja nicht nur.
Es gibt einen Screenshot, aus irgendeinem Shooter meine ich, der in den letzten 1 oder 2 Wochen auch hier im Forum oder Artikel verwendet wurde, auf dem dank DLSS der Text auf einem Schild (oder so) lesbar war. Die originalen Texturen in selbst der höchsten Qualität und Auflösung ermöglichten das nicht.
Was wäre wenn dieser Text bewusst unlesbar gestaltet worden wäre, da er eine Info zur Story enthält, die zu dem Zeitpunkt nicht verfügbar sein soll, aber im Grunde den Spieler von Anfang an verfolgt?
Dann ist das ein Design Fehler des Games, wenn dieses DLSS implementiert mit dem Wissen das es dadurch lesbar wird und einen Spoiler auf das Schild klatscht. Warum man auch immer einen Spoiler auf ein Schild klatschen sollte, ist mir auch nicht so begreifbar...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
ArrakisSand schrieb:
5700XT (40CU, 1.83GHz) relativ NAVI 21 (80CU, 1.83GHz)
18.74 = 100% (TFLOPs) = 160% (Performance, Skalierung 60% inklusive)
9.37 = 50% (TFLOPs) = 100% (Performance)
18.74 - 9.37 = 9.37 TFLOPS (Differenz in TFLOPS zwischen NAVI 21 und der 5700XT)
(9.37/9.37 = 1.0 bzw. +100% relativ zu den 100% der 5700XT)

100% * 0.6 (60% Skalierung ausgehend von der 5700XT) = 60%
Performance:
60% +100% (I) = 160%
(I) Performance bezogen auf 5700XT (9.37 TFLOPs mit 100% Skalierung)

18.74 TFLOPs bei 100% Skalierung = 200% relativ 5700XT (18.74 / 9.37 = 2.0)
160 / 200 * 100 = 80% Performance (relativ zu 2 x 5700XT mit 100%iger Skalierung), was wiederum einer Skalierung von 60% ausgehend von den 40CU's der 5700XT entspricht.
Was Total 2 x 80% = 160% Performance ergibt.
Das sind ziemlich viele unnötige Rechenschritte, dafür dass du einfach hättest sagen können, dass bei 60% Skalierung eine Karte mit doppelten CUs (+100%) ein Leistungsplus von 100% * 0.6 hat^^
Ergänzung ()

SV3N schrieb:
Der Redakteur der PC Welt sagt, er habe gehört, dass der 5900X mit 5 GHz bei 150 Watt TDP läuft.
Vor Allem lustig wie daraus jetzt überall der Leak gemacht wird, dass diese CPU eine TDP von 150W haben soll.
Aufgrund der Aussage dass die CPU ca 150W verbraucht hat? Das sind 8W mehr als das PPT einer 105W TDP CPU, ein 3900X verbraucht also auch "ca 150W" unter Last.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jemandanders, karl_laschnikow, 0-8-15 User und 2 andere
yummycandy schrieb:
Ja und nein. Ich tippe mal drauf, daß für die Konsolenchips schon immer ein eigenes Kontingent vorgesehen war.
Bei den Konsolen gehe ich auch davon aus, das Sony und Microsoft gar nicht zu viele verkaufen wollen. Denn jede Konsole zu Beginn wird wohl ein Minus Geschäft sein. A) Wird man diese Kosten zeitlich strecken wollen.
B) Mit jedem Monat später wird dieses Minus wohl kleiner...
Sprich Sony und Microsoft haben vermutlich ein Interesse gar nicht alles zu ordern was ginge...
Ergänzung ()

xexex schrieb:
Zu Big Navi hat Igor schon was gesagt, aber auch sonst existieren im Netz diverse Gerüchte, wonach die Partner noch nichts bekommen haben.
Sorry, es stimmt das Igor das gesagt hat. Er hat damit aber nicht die Aussage verbunden, dass Big Navi zu Beginn knapp sein könnte!
Igor wollte damit zum Ausdruck bringen das es verdammt noch mal ruhig ist. AMD fährt eine nahezu NUll-Informationspolitik im Moment. Vielleicht gibt es zu Beginn auch nur Referenzdesigns...
Oder aber die Boardpartner bekommen die komplette Platine geliefert und klatschen Ihre eigenen Kühler/RGB Leiuchten drauf...
 
Taxxor schrieb:
Vor Allem lustig wie daraus jetzt überall der Leak gemacht wird, dass diese CPU eine TDP von 150W haben soll.
Aufgrund der Aussage dass die CPU ca 150W verbraucht hat? Das sind 8W mehr als das PPT einer 105W TDP CPU, ein 3900X verbraucht also auch "ca 150W" unter Last.

Hach PC Welt... :hammer_alt:
 
ampre schrieb:
Was du nicht alles weiß. Ich kann Dir sagen warum die Shops so viel stonieren. Es gab einfach eine Überwältigende Anfrage. Solch eine Anfrage läuft aber nicht überr einen einzelnen Server sonndern über meherere. Da bei den ganzen Überanfragen die Server sowieso schon überlastet sind, ist auch die Kommunikation zwischen den Servern überlastet, weshalb der eine Server nicht weiß was der andere Server schon verkauft hat, ergo kommt es zur überbuchung die man dann später per Hand stonieren muss. Lässt sich leider nicht vermeiden...

Doch, lässt es sich.
Die Reiseportale können das sehr gut, wäre ja auch zu schön, wenn plötzlich 1.000 Leute für ein 200 Sitzplätze-Flugzeug gebucht hätten. Ich glaube aber, dass das nicht gewollt ist. Eine Reise kann man nicht zum gleichen Zeitpunkt und gleichen Abflugort trotzdem verkaufen. Bei Hardware wird es viele geben, die dann eben warten und das Geld kommt trotzdem beim Verkäufer an.
 
.Sentinel. schrieb:
Das kann AMD genauso, wenn sie entsprechende Schaltungen liefern.
Ja, erstmal die passenden Schaltungen liefern, nur bei welcher TDP, wenn man derzeit RDNA so einfach wie möglich hält, damit man eine gute Spielearchitektur hat, die durchaus in manch Anwendungen rudimentäre, aber gute Computeleistung bietet. Einen komplexen und dabei effizienten Chip zu bauen bedarf dann doch mehr an Ressourcen und die Treiberentwicklung dahinter war schon bei den Bugs mit RDNA zäh um sich überhaupt an neuen Hardwarefunktionen zu versuchen. AMD hat bis jetzt keine Manpower um gleich an mehreren Funktionen bei Hardware und Software anzusetzen. Selbst nvidia bietet mit Ansel lange ein Alleinstellunsgmerkmal und AMD baut einen billigen Chromium Browser in seinen Adrenalin Treiber ein oder verschönert seine Installer.

GHad schrieb:
........
Was ich meine? Lest mal den Thread nebenan mit den "kaputten" NVidia Karten. Da kommen Leute an und fragen ernsthaft nach, welche NVidia Karte von welchem Hersteller sie kaufen sollen...
.......
Wenn ich mal die Seiten fertig lese bei den ganzen Updates, ist wohl bis dahin RDNA 2 vorgestellt?! 😅

In solchen Themen schreibt vermehrt die sehr kaufkräftige Zielgruppe die OC und Spiele am Limit betreiben will. Die Kunden die das Stärkste auf dem Markt und nicht die RTX3060 erwerben, die für den Massenmarkt sicher weit weniger Probleme bereiten wird.

Im Endeffekt müsste man auf vieles beim Kauf verzichten, sogar auf manch Solinger Messer, denn leider entsprechen Werbeaussagen bei vielen Produkten nicht der Realität. Am Ende wird ja man auch dazu genötigt ein fanatischer Fan einer Partei zu werden oder sogar Demokrat, weil man als Nichtwähler keine Wahlmündigkeit mit dem "Nein" mehr besitzt. Die Kommunikation als schlechtes Marketing wird gerne von oben herab gesprochen.

Auf der anderen Seite wird der Markt trotz anders lautender Versprechen gerne nach einem Erfolg wieder so kurzlebieg umgestaltet, das ja selbst AMD beim ZEN 3 Support bei dem Shitstorm seiner Kunden wieder zurück rudern musste. Das bei einem Produkt, wo die eingefleischten AMD Nutzer und PC Nerds vor dem (Online) Geschäft in der Schlange stehend ZEN in den Markt etabliert haben, wo es für OEM um Zertifizierungen und Supportbeständigkeit beim Kauf geht. Das Iphone wurde ja ebenso nicht erfolgreich, weil irgendwelche Firmen die Millionen Stückzahlen für den eigenen Firmeneinsatz gekauft haben, sondern sich die Endkunden darauf stürzten, auf den Titelseiten landeten und die haben es auch liebend angenommen erst mit OTA Updates fehlerfreie Funktion zu erhalten. Es hat gedauert, bis das Smartphone 2.0 überhaupt firmentauglich wurde und das trifft ebenso auf manch AMD Produkte zu. Dabei war mal AMD im Server und Workstation Geschäft.

Taxxor schrieb:
Irgendwas werden sie schon austüfteln, aber der Schärfefilter als solches bietet hier im grunde kein Potenzial, da muss schon etwas neues kommen.
.......
Geht das nicht, wenn die GPU die benötigten und ja schon vorhandenen Texturen vor dem Rendern vergleichend auswerten kann? Mit dem Laden von einer NVMe SSD sollte das sogar im Voraus möglich sein.
 
Zuletzt bearbeitet:
Der Nachbar schrieb:
Selbst nvidia bietet mit Ansel lange ein Alleinstellunsgmerkmal und AMD baut einen billigen Chromium Browser in seinen Adrenalin Treiber ein oder verschönert seine Installer.
Ja, die Prioritäten sind da schon manchmal merkwürdig gesetzt. Und im Dezember kommt ja traditionell immer eine größere Überarbeitung der Software, bin mal gespannt was man da wieder alles reinbaut oder ob man sich diesmal mehr auf die Stabilität unter der Haube konzentriert hat.
 
ArrakisSand schrieb:
Du hast recht ich hätte nicht mit dem max. Boost rechnen sollen, allerdings macht das gerade mal ca. 4% aus.
Daher nicht wirklich signifikant und hat keinen grösseren Einfluss auf das Endergebnis.
Wir haben hier aber schon ein paar grundsätzliche Probleme.
Einheiten einer Architektur lassen sich nicht ohne weiteres auf eine andere übertragen und den Skalierungsfaktor anhand der genannten Karten zu errechnen hat ein gewaltiges Problem. Sie haben sehr unterschiedliche Taktfrequenzen die das Ergebnis beeinflussen und ich denke nicht das dies berücksichtigt wurde bzw. alle Kandidaten bei gleicher Taktfrequenz liefen. Dann noch die Frage womit die letztendliche Leistung ermittelt wird. Rauscht die Karte in irgendein anderes Limit ist das Ergebnis für die Shader Skalierung nutzlos.

All das verbiegt das Ergebnis bereits so weit das es für einen Rechenfaktor wertlos ist.
 
Zurück
Oben