Ich wollte ja auch nur sagen, dass das Game im Shaderlimit sauber skaliert und ich meine GPU voll nutzen kann. Man kann aktuell nur über die Ursache für das früh einsetzende CPU-Limit spekulieren. Manche vermuten auch, dass es die neue Aerodynamiksimulation der bis zu 1000 Flächen sein könnte, weil die Framerate auch von der Größe des Flugzeugs abhängt.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling
- Ersteller Wolfgang
- Erstellt am
- Zum Bericht: RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.646
Beantworte Dir einfach folgende Frage.Kacha schrieb:Wie schon @Colindo erwaehnt, nein. Es wurde nichts verdoppelt, sondern die INT Einheiten wurden schlichtweg faehig auch FP auszufuehren, mehr nicht. Also das, was AMD schon seit Ewigkeiten macht. Ausser, dass bei AMD jede Einheit das kann.
Können statt einer FP32 nun 2 FP32 Instruktionen simultan ausgeführt werden oder nicht? Wenn ja- Wie geht das, ohne dass die Möglichkeit geschaffen wurde 2x FP32 zu berechnen?
Das hat der Nachgang, also der Fall der zweiten technical NDA, inzwischen schon gezeigt.Das ist noch nicht geklaert. Das erwaehnt auch @Teralios. Kann gut sein, dass das eben nicht moeglich ist ..
Genau- Da ich aber weiss, was in den RT- Cores passiert, kann man dieses Suchszenario dementsprechend ausschließen. Ebenso das Szenario der Erstelleung einer Acceleration Structure.Das ist auch noch nicht gesichert. Und was @Teralios erwaehnt ist, dass Suchen allgemein INT benoetigt, er spricht nicht davon, dass das auf den RT Cores erfolgt. Es war schlichtweg ein Beispiel wofuer man INT und nicht FP benoetigt.
Du führst bereits eine Wertung durch, die Du aber in Deinen vorhergehenden Aussagen zu meiden versuchst.Bitte bei dem bleiben was ich sage. Davon habe ich nicht gesprochen. Was ich sagte ist schlichtweg, dass die INT Last sich unterscheidet.
Für eine Entscheidung, ob im Instruction Set Int oder nur FP benötigt wird? Und eine entsprechende Auslastung zu erzeugen?Nein, aber sein Hirn nutzen. Es ist nun wahrlich keine neu Erkenntnis, dass Schedulingaufwand sehr schnell steigt wenn die Komplexitaet steigt.
-> Eindeutig nein!
Ja- Die Firmen gehen gerade in der derzeitigen Situation keinerlei Risiken ein. Zumal der Markt durch Covid 19 und dem einhergehenden Investitionsunwillen dem ganzen noch Vorschub leistet.Bist du dir da sicher?
Der Image- Schaden war enorm ganz abgesehen von dem Schadensersatz, den NVIDIA zu leisten hatte. Was glaubst Du, was ein derartiger logistischer Aufwand an Regulierung im Nachgang für so eine Firma bedeutet?Sowohl Nvidia als auch Intel waren doch super Beispiele in den letzten Jahren. Nvidia mit seiner 970, wen hat das gross interessiert? 2% der Kaeufer?
Niemanden, weil jeder, der die hardwaretechnische Entwicklung verfolgt und auch die physikalischen Grenzen berücksichtigt, auf die wir stoßen, einfach nur Leistungsplus gegen den Verbrauch stellt.Oder jetzt der Verbrauch ueber 300W, wen interessiert es gross?
Genau, weil AMD ein merkliches Leistungsdefizit im Verhältnis zum Verbrauch der Konkurrenz hatte.Das wurde bei AMD ueber Jahre angekreidet, jetzt ist es ok.
Weil Meltdown, sowie Spectre abstrakte und nicht immanente Gefahren für den User darstellen. Der Aufwand diese Lücke zu nutzen übersteigt um Faktoren jeglichen Praxisnutzen. Zudem- Warum hierIntel mit Meltdown und Spectre, was war der grosse Schaden? Die "informierten" Gamer kaufen froehlich weiter weil Intel ist ja der beste in Spielen. Sicherheit? Was ist das.
Nebenkriegsschauplätze aufmachen? Das hinterlässt immer einen etwas "gedrungenen" Eindruck.
Die Reputation von Ubisoft hat dadurch deutlich gelitten. Sämtliche Titel, die im Nachgang auf den Markt gekommen sind, wurden mit Argwohn und sehr genau betrachtet.Naja... wie gross war der "Shitstorm" und wie gut hat es sich dann doch verkauft? Nur weil ein paar laut sind heisst das noch lange nicht, dass es viele sind.
...wie z.B. man hat 10.000 FP32 Einheiten zur Verfügung...Naja... Dazu musst du aber gezielt Falschaussagen machen, ansonsten hat das vor keinen Gericht eine Chance.
Was eine deutlich übertriebene Darstellung seines zukünftigen Produktportfolios zweifelsfrei darstellt. Zumal man ja damit virtuelle seine Konkurrenz auch manipuliert.Und dazu muss nachgewiesen werden, dass Kursmanipulation das Ziel war.
Genau den wirst Du aber auch für Dich in diesem Titel und diesem Szenario genau so nachvollziehen können.Danke, denn im Launchthread wurde es als "unabhaengiger Beweis" gefuehrt fuer die Leistung von Ampere. Das war aber schlichtweg nur das was man als Influencer versteht mit strikten Vorgaben von Nvidia. Unabhaengig war da wenig.
Noch einmal- Kannst Du statt einer FP32 nun unabhängig 2x FP32 Berechnungen durchführen oder nicht?Das ist schoen, aber in dem Fall wirkt es dann doch etwas bizarr wie du hier im Thread teilweise verteidigst. Zum Beispiel das mit der Veropplung der FP32 Einheiten, das war halt faktisch falsch was du gesagt hast.
Hast Du bei Pascal auch die Corezahl halbiert, weil diese einen Kontextwechsel INT/FP benötigt haben, oder nicht?
Jeder hat Tendenzen. Auch ich.Klar gibt es die, aber man kann Beitraege halt auch gern falsch verstehen wenn man selber nicht ganz unvoreingenommen ist.
So kann ich mich z.B. nicht gegen Innovationen und interessante Technik wehren und bin da oftmals vielleicht ein wenig überschwänglich.
Siehe Radeon VII, primitive, Shader, Ray Tracing und und und....
Dennoch erkenne ich einen Unterschied diesbezüglich zu einem "BMW oder Mercedes ist geil" und alles andere ist Schrott.
Genau- Viele sehen hier nicht das Produkt und die Technik, sondern die Firma, die dahintersteht.Deswegen sollte zusaetzlich zur Frage was der Urheber bezwecken will noch dazu gefragt werden ob man gerade selber das ganze so objektiv wie moeglich bewertet.
Damit kann ich nichts anfangen.
Das wiederum ist garkein Problem, weil das der Ursprung aller Diskussion ist. Erstmal geht jeder davon aus, dass seine Meinung die richtige ist.Das ist auch angenehm, problematisch wird es nur, wenn jemand dann wieder ueberzeugt ist, dass seine Meinung die richtige ist.
Schön ist es ja, wenn sich überhaupt Leute neutral geben. Das bedeutet ja bereits, dass sie den Sachverhalt nicht nur von einer Seite beleuchten.Da geben sich teilweise Leute "neutral" obwohl sie es gar nicht sind. Oder es sind nicht genug Informationen gelesen worden. Das wird schnell frustrierend.
Machine Learning geht ja eher in den professionellen Bereich.Bzw. ueberlege ich mir auch ob ich Nvidia kaufe oder nicht. Der einzige Grund den ich allerdings habe ist Machine Learning. Und dafuer sind die 3070 und 3080 halt ein schlechter Witz mit ihrer VRAM Bestueckung. Allerdings sind 1500 dann eine komplett andere Hausnummer.
Wenn nicht, dann zumindest in den Fortbildungsbereich, in welchen nvidia Sonderprogramme auflegt, wo Du die Karte günstiger erstehen könntest.
Das ist die Problematik, die viele von unseren Kunden haben. Jedoch muss man dazu sagen, dass sich nvidia diesbezüglich mit ihren 1500,-€ und 24 GB VRAM und der gebotenen Leistung selbst derbe kannibalisieren.24GB waeren toll, aber der Preis... In dem Bereich ist AMD auch so eine Sache. Der Support bei Tensorflow ist nicht wirklich vorhanden, ausser durch einen Fork von AMD, der in Beta ist.
Mit der 3090 schneiden die sich in mehrfacher Hinsicht ins eigene Fleisch.
Schau Dir mal das dazu an:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Man kann den Kerl mögen oder nicht. Aber er hat eine unfassbar auf Fortschritt, Innovation und Führerschaft getrimmte Einstellung.
Zuletzt bearbeitet:
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.268
.Sentinel. schrieb:Genau, weil AMD ein Leistungsdefizit gegenüber des Verbrauchs der Konkurrenz hatte.
Ja schon und leider wurde auch viel liegen gelassen siehe Polaris und Vega56 mit UV und PTT+ ging da ziemlich viel meine verbraucht ca. 15% weniger und bringt ca. 7% mehr Leistung.
M
matty2580
Gast
Ampere ist kein Zauberwerk, und die News hier dazu ist wirklich sehr gut geschrieben von der Redaktion.
Solche Worte wie "großes Lob" schreibe ich nur ganz selten.
Wolfgang hat das wirklich sehr gut recherchiert, ausgewertet, und mit einfachen Worten beschrieben.
In den letzten 10 Jahren hatte Nvidia immer sehr gute Treiber, bis ans Optimum optimiert, von Anfang an, so dass spätere Treiber kaum noch Spielraum hatten.
Das war immer der Unterschied zu AMD, deren Treiber deutlich länger brauchten.
Und genau deshalb ist das Fine-Wine-Prinzip entstanden, was eigentlich ja eher ein Lob für die Softwareentwickler von Nvidia ist.
D.h. man kann davon ausgehen, dass Nvidia mit gut guten Treibern, gleich zum Start von Ampere, die Messlatte ganz hoch setzten wird, wie auch schon in den vielen Jahren davor.
Die Mädels und Jungs bei Nvidia wissen genau was sie machen, und auch wie stark Big Navi wird.
Und was P/L betrifft, hat man sich natürlich genau Gedanken bei Nvidia gemacht.
Die vorgestellten Produkte wurden genau so platziert, dass es passt.
Und man hat sich bei Nvidia viel Spielraum übrig gelassen, so dass man schnell auf Big Navi reagieren kann.
Solche Worte wie "großes Lob" schreibe ich nur ganz selten.
Wolfgang hat das wirklich sehr gut recherchiert, ausgewertet, und mit einfachen Worten beschrieben.
In den letzten 10 Jahren hatte Nvidia immer sehr gute Treiber, bis ans Optimum optimiert, von Anfang an, so dass spätere Treiber kaum noch Spielraum hatten.
Das war immer der Unterschied zu AMD, deren Treiber deutlich länger brauchten.
Und genau deshalb ist das Fine-Wine-Prinzip entstanden, was eigentlich ja eher ein Lob für die Softwareentwickler von Nvidia ist.
D.h. man kann davon ausgehen, dass Nvidia mit gut guten Treibern, gleich zum Start von Ampere, die Messlatte ganz hoch setzten wird, wie auch schon in den vielen Jahren davor.
Die Mädels und Jungs bei Nvidia wissen genau was sie machen, und auch wie stark Big Navi wird.
Und was P/L betrifft, hat man sich natürlich genau Gedanken bei Nvidia gemacht.
Die vorgestellten Produkte wurden genau so platziert, dass es passt.
Und man hat sich bei Nvidia viel Spielraum übrig gelassen, so dass man schnell auf Big Navi reagieren kann.
Zuletzt bearbeitet von einem Moderator:
W
Wadenbeisser
Gast
Der war gut!t3chn0 schrieb:Diese Technologien hat aber niemals jemand in Frage gestellt und als unnötig dargestellt.
Der Nutzen von TruForm (Vorläufer der Tesselation) wurde wegen des Leistungsbedarfs zerredet, der Nutzen von DX11 und damit auch der Tesselation wurde beim Start der HD5870 von nvidia klein geredet bis man ein halbes Jahr später den Fermi rausbrachte und mit überzogenen Tesselationsfaktoren sinnlos Rechenleistung verbriet um an erster Stelle zu stehen.
Bei low(er) Level APIs hatten alle abgewunken bis AMD den Nutzen für PC Spieler demonstrierte, Stichwort Mantle API. Wenn es nach MS gegangen wäre hätte es für dieses Gebiet DX12 garnicht erst gegeben und man hätte diesen Markt nur mit DX11 abgespeist. Bis zu nvidias RTX Nummer haben die sich auch herzlich wenig dafür interessiert und sich als Marktführer lieber auf der Treiber Multicore Krücke für DX11 ausgeruht. Auch Intel schien sich kaum dafür interessiert zu haben, kein Wunder denn beide profitierten schließlich von ineffizienter Multicore Krücken Software.
Im übrigen wurden gerade von der grünen Fraktion die neuen APIs als überflüssig hingestellt weil sie mit der Treiber Krücke dennoch hohe Frameraten erreichten und mit den neuen APIs nicht selten weniger FPS als mit DX11 bekamen. Hier schien sich der Overhead der Multicore Krücke im Treiber zu rächen.
DannyBoy
Lt. Commander
- Registriert
- Sep. 2010
- Beiträge
- 1.370
Meanwhile in russia:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
W
Wadenbeisser
Gast
Das ist aber nicht das Shader- sondern das allgemeine GPU Limit, die Karte hat im Vergleich zu FullHD einfach 4x mehr Pixel zu berechnen. Das hilft nur nichts wenn das CPU Limit des Spiels bereits so tief sitzt das man so oder so nicht auf brauchbare Frameraten komm weil die GPU nicht ausreichend gefüttert werden kann..........Fail by design eben.Nolag schrieb:Ich wollte ja auch nur sagen, dass das Game im Shaderlimit sauber skaliert und ich meine GPU voll nutzen kann. Man kann aktuell nur über die Ursache für das früh einsetzende CPU-Limit spekulieren.
Da brauch man auch nicht über das CPU Limit des Spiels spekulieren wenn es in Tests bereits nachgewiesen ist.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.469
FineWine entstand durch Hawaii und am Ende hat es auch gestimmt, allein wenn man bedenkt wie lang es die GPU zum Kaufen gab und per Treiber unterstützt wurde (damit mein ich direkt optimiert).matty2580 schrieb:Das war immer der Unterschied zu AMD, deren Treiber deutlich länger brauchten.
Und genau deshalb ist das Fine-Wine-Prinzip entstanden, was eigentlich ja eher ein Lob für die Softwareentwickler von Nvidia ist.
Weiteres sieht man es auch teils bei DX12 Games. Das war/ist eine Stärke von GCN und da konnte man sich von der Konkurrenz auch in vielen Games distanzieren. Da wurde lang davon gesprochen, dass DX12 völlig unnötig sei, weil ja DX11 super optimiert sei.
Heute behauptet kaum jemand dass DX12 nicht die Zukunft sei. Speziell weil auch RT und viele neue Features auch nur mehr unter DX12 laufen.
M
matty2580
Gast
Schon bei Vega hat das Fine-Wine-Prinzip versagt.
Ich glaube in dem Punkt sind wir uns auch einig, dass Treiber von Anfang an gut optimiert sein sollten.
Und ich hatte es davor schon geschrieben.
Für AMD im Desktop-Bereich sehe ich auch nicht Schwarz.
Die Marktanteile kann man wieder zurück erobern, mit klugen Marketing, indem man die eigenen Vorteile gut verkauft.
Nur darf dieses Mal das Marketing nicht schlafen bei AMD, weil Nvidia mit Ampere gut vorgelegt hat.
Aber selbst wenn Navi 2.0 hier nicht gut verkauft werden sollte, wird die RTG sehr viele Semi-Custom-Chips für die PS5 und die nächste X-Box verkaufen.
Egal wie, die RTG wird erfolgreich sein. ^^
Ich glaube in dem Punkt sind wir uns auch einig, dass Treiber von Anfang an gut optimiert sein sollten.
Und ich hatte es davor schon geschrieben.
Für AMD im Desktop-Bereich sehe ich auch nicht Schwarz.
Die Marktanteile kann man wieder zurück erobern, mit klugen Marketing, indem man die eigenen Vorteile gut verkauft.
Nur darf dieses Mal das Marketing nicht schlafen bei AMD, weil Nvidia mit Ampere gut vorgelegt hat.
Aber selbst wenn Navi 2.0 hier nicht gut verkauft werden sollte, wird die RTG sehr viele Semi-Custom-Chips für die PS5 und die nächste X-Box verkaufen.
Egal wie, die RTG wird erfolgreich sein. ^^
Zuletzt bearbeitet von einem Moderator:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.646
Ich stell mir da immer wieder die Frage, warum AMD da nochmal ein Stückchen Potenzial verspielt hat.Mcr-King schrieb:Ja schon und leider wurde auch viel liegen gelassen siehe Polaris und Vega56 mit UV und PTT+ ging da ziemlich viel meine verbraucht ca. 15% weniger und bringt ca. 7% mehr Leistung.
Die einzige Antwort, die ich drauf gefunden habe ist, dass sie nicht genug Vertrauen in die Konstanz ihres Fertigungsprozesses hatten und es Befürchtungen gab, dass zu viele EInheiten dann durch die Funktions- und Qualitätskontrolle fallen würden.
Wer weiss...
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.268
matty2580 schrieb:In den letzten 10 Jahren hatte Nvidia immer sehr gute Treiber, bis ans Optimum optimiert, von Anfang an, so dass spätere Treiber kaum noch Spielraum hatten.
Naja sage nur Gsync Bug und Ampera ist auch was anderes denke dass dort viel mehr in den Treiber gesteckt werden muss für gute Performende Games, aber wir werden sehen.
T
Teralios
Gast
Mach es doch nicht so kompliziert mit Pascal..Sentinel. schrieb:Noch einmal- Kannst Du statt einer FP32 nun unabhängig 2x FP32 Berechnungen durchführen oder nicht?
Hast Du bei Pascal auch die Corezahl halbiert, weil diese einen Kontextwechsel INT/FP benötigt haben, oder nicht?
Pascal kann eine Operation auf einen Datentyp bei bis zu 128 Werte durchführen. Ampere kann nun 2 Operationen auf bis zu zwei Datentypen zu je 64 Werten durchführen.
Oder wie Du sagst: Ampere kann zwei voneinander unabhängige FP Berechnung auf bis zu jeweisl 64 Werte durchführen oder zwei unabhängige Operationen auf einmal 64 FP und einmal 64 INT Werte.
Oder um das abzukürzen: Ampere kann jetzt auf einer SM zwei Shader (Programm!) aus führen, die jeweils ihren eigenen 64er Block hat um den zu folter.
Ehrlich: Ich will jetzt lieber ein Ampere zum Spielen haben, statt im Endeffekt jetzt all da zu wiederholen, was wir ohnehin schon oft geschrieben haben.
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.268
.Sentinel. schrieb:Ich stell mir da immer wieder die Frage, warum AMD da nochmal ein Stückchen Potenzial verspielt hat.
Die einzige Antwort, die ich drauf gefunden habe ist, dass sie nicht genug Vertrauen in die Konstanz ihres Fertigungsprozesses hatten und es Befürchtungen gab, dass zu viele EInheiten dann durch die Funktions- und Qualitätskontrolle fallen würden.
Richtig was auch an dem GPU selber lag da sie für Gaming und HDPC gedacht war ein Chip für alles, aber man hat ja gelernt mit RDNA1, auch darf man Intel diesmal nicht unterschätzen, zumindest wenn sich meine Quellen als richtig raus stellen.
Des weiteren wäre es doof für NV, wenn dass auch stimmt das Samsung die Switch2 macht und GPU dürfen sie ja RDNA benutzen, dank abkommen.
K
KlaraElfer
Gast
Teralios schrieb:Wolltest du mich nicht ignorieren, wäre in dem Fall für mich jetzt die bessere Entscheidung gewesen, dann müsste ich nämlich jetzt nicht schreiben, dass du meinen Beitrag sehr genau lesen solltest, bevor du meinst mich zu belehren.
Ja, in dem Fall scheine ich mehr Ahnung vom Thema zu haben und da darf ich es mir doch gleichbedeutend mit deiner Attitüde herausnehmen jemanden der nur Halbwissen verbreitet, zu belehren. Das ist doch deine Devise.
Äußere dich nicht zu Themen, von denen du nur mit Halbwissen oder Esoterik glänzen kannst.
Teralios schrieb:Hier versuchst du meine Aussage ins Lächerliche zuziehen, vergisst dabei aber wesentliche Bestandteile, die ich erwähnt habe.
Du hast die wesentliche Bestandteile des Posts von .Sentinel. vergessen/ignoriert und nur einen Schnipsel zitiert, und dazu Behauptungen aufgestellt, die dir jetzt komplett auf die Füße fallen und nichts anderes als lang widerlegte Falschaussagen sind.
Teralios schrieb:Ich sprach von der (1.) CPU, der (2.) Infrastruktur der Hardware - dazu gehört der RAM*, (3.) die Infrastruktur der Software - dazu gehört das Betriebssystem, dessen Version, Treiber, dessen Version sowie die verwendeten APIs und (4.) das Spiel.
Wie möchtest du auch ohne Betriebssystem, Treiber, der Spiele-API und dem Spiel selbst einen Vergleich durchführen? Unmöglich.
Teralios schrieb:* Selbst das Mainboard kann hier einen Einfluss haben, wenn die CPU - wie bei Intel - mehr Freiheiten bei der Stromaufnahme gegeben wird.
Deshalb gibt es ja schlaue Menschen, die sich darüber Gedanken machen, wie man Benchmarks möglichst vergleichbar durchführen kann und nicht wie man sie durch eine zu langsame GPU für die CPU unbrauchbar macht, deshalb testet man mit identischen Powertargets.
Und Mainboards haben schon seit langer Zeit keinen relevanten Einfluss auf die Spieleleistung mehr.
Teralios schrieb:Beim RAM können neben Takt auch die Timings mitspielen, die ggf. auch durch das Board limitiert werden, weil die Stromversorgung nicht optimal ist oder die Topologie mit spielt.
Nichts neues, deshalb testet man mit Herstellervorgaben und oder gibt die RAM Taktrate und die Timings an.
Das ist ja eine Grundvorraussetzung für Tests, die Vergleichbarkeit wahren, das weißt du offenbar nicht.
Teralios schrieb:Testet man ein Spiel bei 720p im CPU-Limit, ist das nun mal eben kein reiner Test des Spieles, sondern ein Test mehrere Faktoren auf der Hardware und all diese Faktoren spielen damit rein.
Du schließt ja durch die Testmethodik diese "mehreren" Faktoren die du da nennst, so weit wie möglich aus, welche in einer höheren Auflösung, in denen die CPU eben nicht mehr "getestet" wird hinzukommen.
Dein Argumentation lässt sich für genau diese Art von Tests, die den GPU Einfluss mittesten, anwenden.
Denn genau dann ist keine Aussage über die CPU Performance mit einer schnelleren GPU möglich.
Du reduzierst diese Faktoren auf ein Minimum, eine Grundvorraussetzung dafür überhaupt eine Komponente zu testen. Und wenn ich diese Faktoren bereits auf ein Minimum reduziert habe, dann sind diese Faktoren eben absolut kein Grund mehr das Testprinzip oder das Ergebnis anzuzweifeln und zu erwarten dass es sich verändert.
Ich habe solche Wunderheilungen im PC Masterrace bisher noch nicht gesehen.
Teralios schrieb:Betriebssystem, Treiber, APIs als auch die Architektur des Spieles haben hier oft genau so einen Einfluss auf die Ergebnisse wie die verwendete CPU oder der RAM.
Nein, die Leistungsfähigkeit der CPUs hat sich untereinander durch solche absolut spekulativen und nicht festgestellten Einflüsse nie signifikant geändert, das wüsstest du, wenn du Spielebenchmarks machen würdest, was du ganz offensichtlich nicht tust. Reicht ja wenn man die Computerbase Tests überfliegt.
Das ist von dir an dieser Stelle absolut spekulativ, genauso wenig kann es an der Methodik von vernünftig durchgeführten CPU Benchmarks etwas ändern oder schränkt deren Aussagekraft ein.
In der Regel gibt es da keine signifikanten Veränderungen bei den CPUs untereinander, sodass Tests im CPU Limit keine Gültigkeit mehr hätten.
Teralios schrieb:Du hältst sie nur für anti-wissenschaftlich, weil du hier selektiv liest...
Weil es jeden Test ad absurdum führt, denn demnach hat gar kein Test eine Gültigkeit, weil am nächsten Tag ein Betriebssystem Update herauskommt, oder ein Grafiktreiber geupdated wird, somit ist auch dein Argument, welches gegen "solche Tests im CPU Limit" spricht, völlig an den Haaren herbeigezogen.
Teralios schrieb:Ich habe hier vereinfacht dargelegt, was mit 720p Tests alles zur gleichen Zeit getestet wird und über was man alles gleichzeitig eine Aussage treffen kann. CPU, Infrastruktur und die Software selbst.
Nein, du hast nichts vereinfacht dargelegt, sonder einfach nur zweierlei Dinge miteinander verwechselt.
Teralios schrieb:Darauf aufbauend habe ich das generelle Problem mit den 720p Tests genannt:
Als ob das etwas mit der Auflösung zu schaffen hätte, die CPU interessiert die dargestellte Auflösung nicht.
Teralios schrieb:Man wirft dann die Tests zusammen und versucht dann ein generelles Fazit für die Zukunft zu ziehen.
Wieso generelles Fazit, das behauptet doch keiner, schon gar nicht Sentinel.
Setzt du bei dem damals getesteten Spiel nun eine schnellere Grafikkarte ins System und hast früher darauf geachtet im Prozessorlimit zu testen, dann kannst du dir den neuen Test sparen und wusstest für das Spiel schon damals welchen Prozessor du kaufen sollst, damit er nicht deine zukünftige GPU limitiert.
Haste du damals im GPU Bottleneck gemessen, musst du den Test erneut durchführen.
Teralios schrieb:Und letzteres wird genau hier immer wieder von vielen Mitgliedern gemacht - nicht von der Redaktion.
Wer macht das denn? Sehe ich nicht, ich würde behaupten da liegt ein schweres Missverständnis vor, geschuldet deines Halbwissens bezüglich Benchmarking.
Teralios schrieb:Unwissenschaftlich ist es aus Tests mit Grafikkarte X, Software Y, RAM Z sowie CPU A eine Aussage für eine mögliche Konfiguration in der Zukunft mit Grafikkarte X2, Software Y.2 RAM ZZ sowie CPU A zu treffen...
Wieso RAM Zz? Der RAM bleibt doch gleich, genauso wie die Software gleich bleibt, oder hast du schon einmal ein Spiel gesehen, in welchem sich die CPUs nach Updates völlig anders einordnen? Extremst selten.
Du hast einfach keinerlei Praxiserfahrung und wahrscheinlich noch nie einen Benchmark durchgeführt.
Teralios schrieb:denn wenn Grafikkarte X2 auf den Markt kommt, hat sich bei der Software einiges ändern können, was dann Probleme beseitigt, die zum Zeitpunkt des Tests der 1. Konfiguration zu einem schlechteren Ergebnis geführt hat.
Warum sollte das ein exclusives 720p Problem sein? Dass sich die CPU Rangfolge durch Softwareupdates eines bereits erschienene Spiels relevant verschiebt kommt in absoluten Einzelfällen vor, ich habe es aber noch nie wirklich beobachtet und damit fällt das insgesamt in die Kategorie irrelevant, es sei denn es steht ein Wechsel der API oder ein größeres Update an.
Teralios schrieb:Tests sind immer Momentaufnahmen und hier gibt es sehr viele Variablen, die das Resultat beeinflussen.
Da muss ich dich enttäuschen. Diese Tests sind keine Momentaufnahmen, schon gar nicht wenn das Spiel das gleiche bleibt.
Teralios schrieb:Ich kann mit einem 720p testen, ob einer CPU die Engine/das Spiel liegt oder eben ob das Spiel die Ressourcen der CPU nutzt oder nicht.
Ich teste wie gut eine CPU mit diesem Spiel klarkommt und performt.
Deine Hoffnung dass sich CPU Ranglisten durch Updates groß verändern, ehrt dich ja, aber das ist quasi nie der Fall und schon gar nicht ein Argument gegen diese Testmethodik.
Damit dürfte eigentlich alles gesagt sein.
Teralios schrieb:Denn es reicht schon, wenn im Spiel X die Algorithemn eventuell angepasst werden und die Version Z plötzlich wesentlich besser auf der CPU A läuft.
Und das gilt nur für 720p oder auch für 4K?

Hätte Hätte Fahrradkette, eventuell, völlig spekulativ.
Teralios schrieb:Oder um es klar zu stellen: Wer aus dem 720p Test - wie hier oft von einigen Pappenheimer gerne gemacht wird - eine generelle Aussage für die Zukunft trifft und denkt, dass diese Aussage absolut ist, wie es auch hier all zu oft vorkommt, handelt genau nicht wissenschaftlich!
Wer sind denn diese Pappenheimer und wer hat das behauptet? Für mich hört sich das nach einer klassischen
verzerrten und undifferenzierten Version der gegnerischen Argumentation (.Sentinel.) an und nach irgendetwas was man anderen in den Mund legt.
Teralios schrieb:Bevor du meinst mich hier versuchen vorführen zu müssen..
Naja, diese Aversion gegen 720p Testungen fällt bei mir generell unter Aluhutgedöns.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.469
Vergleich mal damalige NV Grafikkartengenerationen mit Hawaii unter DX12. Wirst schnell merken, dass das wenig oder nicht unbedingt mit Treiber zu tun haben muss, mehr mit der verwendeten API und Features.matty2580 schrieb:Ich glaube in dem Punkt sind wir uns auch einig, dass Treiber von Anfang an gut optimiert sein sollten.
Wie bei "Async Compute".
Das FineWine war also durchaus Marketing, aber es kam nicht von irgendwoher. Man hat es dann eben beobachtet, dass gewisse AMD Karten länger gealtert sind.
Das müsste aber spätestens mit RDNA2 Geschichte sein, einfach weil die Hardware durch die Änderungen besser ausgelastet werden kann (teils auch durch heutige Software-Änderungen).
Oder anders gesagt, AMD hat sich einfach verrechnet. Mit eine low level API wäre man damals mit GCN und Bulldozer auch besser gefahren. Rückblickend kann man das durchaus sagen. Ändert aber nichts daran, dass die Softwarelandschaft eben anders ausgesehen hat. Aber wer von uns weiß schon welche Entscheidung heute für die nächsten 5 Jahre (denn so lange dauert ca die Entwicklung großer Entscheidungen) die Richtige ist.
Bei Zen war der Multi Chiplet-Ansatz bzw IF-Protokoll, das setzen auf TSMC ect zum Bsp richtige Entscheidungen.
Zuletzt bearbeitet:
M
matty2580
Gast
Ich bin da mit dir einer Meinung, auch wenn es mich persönlich nicht interessiert.
Selbst bin ich bei W7 stehen geblieben, habe zwar eine W10-Partition, die ich aber so gut wie nie nutze.
Statt dessen werde ich über die PS5 4k-Gaming machen, natürlich mit Kompromissen, aber AMD wird auch von mir etwas Geld bekommen.
Geld für die Konsole und neuen 4k-TV liegt schon bereit. ^^
Selbst bin ich bei W7 stehen geblieben, habe zwar eine W10-Partition, die ich aber so gut wie nie nutze.
Statt dessen werde ich über die PS5 4k-Gaming machen, natürlich mit Kompromissen, aber AMD wird auch von mir etwas Geld bekommen.
Geld für die Konsole und neuen 4k-TV liegt schon bereit. ^^
T
Teralios
Gast
Eigentlich keiner, weil die Welt immer im Wandel ist. Entsprechend sind Tests, egal ob jetzt 720p, 1080p, 1440p usw. bei CPU und GPU immer erst mal Helfer für eine Kaufentscheidung im Jetzt.pipip schrieb:Aber wer von uns weiß schon, welche Entscheidung heute für die nächsten 5 Jahre die Richtige ist.
Man kann dann gewisse Schlüsse für eine mögliche Zukunft ziehen, aber man sollte immer beachten, dass die Ergebnisse des Tests eben nicht im Stein gemeißelt sind und sich Faktoren ändern können. Software und Hardware befinden sich immer in Entwicklung und was heute eine kluge Entscheidung ist, kann morgen schon wieder überholt sein (dramatisiert).
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.646
Naja- Im Endeffekt hat er ja je nach Betrachtungsweise recht. Nur wollte ich damit aufzeigen, dass es halt auch eine Frage der Definition ist (wie so oft).Teralios schrieb:Mach es doch nicht so kompliziert mit Pascal.
Und rein technisch gesehen flunkert nvidia nicht. Das Q&A auf Reddit ist da sehr eindeutig.
Will heissen, ich kann die volle Anzahl an ALUs entsprechend dem Tech- Sheet auslasten. Da ich jeden SM dediziert ansprechen kann, ist auch eine entsprechende Granularität gewahrt, um nicht schnell in die Effizienz- bzw. Entscheidungsgrenzen zu geraten, die wir früher in diesem Thread zu Recht auch angedacht hatten.
Ist ein SM im Teilbereich blockiert bzw. mit reinem Int unterbucht, dann hat man da halt einen Effizienzverlust hinzunehmen. Alles besser, als die übrigen Einheiten wie bei Turing oftmals geschehen, unbeschäftigt zu lassen.
Deshalb schrieb Igor ja auch, dass man im schlechtesten Fall trotzdem nur gewinnen kann.
Zuletzt bearbeitet:
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.268
KlaraElfer schrieb:Als ob das etwas mit der Auflösung zu schaffen hätte, die CPU interessiert die dargestellte Auflösung nicht.
Jain dass ist nicht ganz richtig da die daten für die GPU immer von der CPU bereit gestellt werden je grösser die Auflösung desto mehr Daten fallen an, ergo wertet die GPU länger. Genau dass umgeht ja die PS5 in Perfektion sogar besser als die Xbox SX. Genau deswegen gibt es ja i/O RTX Zeug jetzt mit Ampera, was im Prinzip nur auf DX i/O API basiert. Nur bei der PS5 geht dass direkter da i/O CPU und GPU und SSD dass selbe ist.
Natürlich ist die Ursache für das CPU-Limit aktuell Spekulation. Man weiß nicht ob es an DX11 liegt und wie weit DX12 das CPU-Limit verschieben würde. Das CPU Limit kann auch hauptsächlich durch die neue Aerodynamiksimulation verusacht werden.Wadenbeisser schrieb:Da brauch man auch nicht über das CPU Limit des Spiels spekulieren wenn es in Tests bereits nachgewiesen ist.