News AMD will Framelatenzen in Tomb Raider und Hitman optimiert haben

Ich versteh auch nicht warum CB ein Fass aufmacht und sich keine Mühe macht der Sache mal richtig auf den Grund zu gehen und zwar bei einer Reihe von Spielen mit mehreren Karten sowohl von AMD als auch Nvidia bzw. unterschiedlichen CPUs (Intel AMD). Solche News haben keinerlei Mehrwert für den User. Danke für nichts.

Es gibt genügend Fälle wo das Problem auch bei Nvidia vorkommt (damit möchte ich das Problem nicht kleinreden), aber während man munter auf AMD herumreitet, werden die Probleme bei Nvidia totgeschwiegen.

CB war mal ne gute Seite aber so langsam wir der Computer Bereich von Computerbase vernachlässigt, da leisten andere Seiten sehr viel mehr. Hauptsache die neusten Smartphone news haben.
 
Zuletzt bearbeitet:
Great Evil schrieb:
Sorry, aber ich sehe das ganz anders, besonders deshalb, das die Probleme (wenn auch nicht in diesem Ausmasse) schon sehr! lange bekannt sind.

Und deshalb sind die Tests von 5 Spielen nicht ok? Kapier ich nicht.

Man hat hier Jubelorgien auf die Leistung der Titan abgelassen als waere Ostern und Weihnachten auf einen Tag gefallen.

Ähm, CB ist eine der wenigen Seiten die die Leisung der Titan ordentlich gemessen hat ( vorgewärmt), gut sie sind nicht auf den Preis eingegangen und haben diesen nicht negativ in der Tabelle hervorgehoben, das hat man aber vorher auch nie getan.
Im fazit wird aber darauf eingegangen.

Man setzt auch regelmaessig in kurzen Abstaenden einen drauf um per cherrypicking zu zeigen wie Scheisse AMD ist.

Ja man hätte Nvidia gleich nochmal mittesten können, aber man hat eines der beiden Spiele doch schon getestet?
Warum dann also cherry Picking?

Ich fände es natürlich besser gleich mal mehrere Spiele und mehrere Szenen zu nehmen und einfach nen gescheiten Artikel zu schreiben, anstatt immernur solche halbfertigen Brocken zu servieren.
Das kostet aber Zeit.
 
@Dai6oro

hä? Quark?

Die News ist eben an die AMD Besitzer gerichtet, wieso muss man bei der News eine AMD / Nvidia Diskussion draus machen bzw immer gegenüberstellen. So ein Humbug!

Ist doch Wurst wie Käse ob bei Nvidia selbige Probleme auftreten, die News hinterfragt die Verbesserung beim neusten Catalyst Beta. Punkt. Nicht mehr nicht weniger.

Herrje, man könnte die meinen die Hälfte hier ist bekloppt. Muss man denn immer Vergleiche zur Konkurrenz ziehen um ein spezifisches Problem zu durchleuchten?!
 
Ich fände es natürlich besser gleich mal mehrere Spiele und mehrere Szenen zu nehmen und einfach nen gescheiten Artikel zu schreiben, anstatt immernur solche halbfertigen Brocken zu servieren.
Das kostet aber Zeit.


Wofür zum Geier werden die Leute dann bezahlt, wenn nicht genau für das?
Halbgaren Mist abliefern?

Mich als Tester/Redakteur würde es persönlich schon interessieren, woher die Ursache für diese Problematik rührt.
Auch wissen scheinbar viele, dass dieses Problem komplexer ist und auf allen Systemkonfigurationen aufzutreten scheint.
 
Herrje, man könnte die meinen die Hälfte hier ist bekloppt. Muss man denn immer Vergleiche zur Konkurrenz ziehen um ein spezifisches Problem zu durchleuchten?!

Sicher muss/sollte man das. Viele nutzen die Seite hier als Kaufentscheidung und dann werden sie von einem reißerischen Titel abgeschreckt ohne dass auf die eigentlich Problematik und die betrifft beide Seiten eingegangen wird.

Einfach ein Problem anzusprechen ohne das gesamte Ausmaß zu erfassen kann man sich sparen.
 
reißerischen Titel?

Muss ich jetzt bei jeder News die ein Problem betrifft den ganzen Markt durchleuchten? Framelatenzen findet sich in jedem aktuellen GPU Test auf CB. Das reicht doch wohl.

Viel interessanter wäre es das Problem auch mal bezüglich Systemkonfiguration / AMD / Intel / CPU Features / Power Settings zu durchleuchten. In einem gesonderten Artikel. Da spricht absolut nichts dagegen und das kann man auch konstruktiver anbringen als hier hier über ein Nvidia gekauftes CB abzulassen...

Was manche hier abkotzen... dabei kann man eigentlich froh sein, dass sich CB einer solchen Sache annimmt und und die Release Notes zum Treiber auf die Prüfung stellt.

Muss ich jetzt beim Antennen Problem des iPhone 4 jede Handy in die Hand nehmen und schauen ob ich über die Haltung den Empfang verschlechtern kann? Muss ich bei Yield Problemen von TSMC jede Fertigung bei anderen Produzenten( Intel , GF ...) dagegen stellen?

Das einzige was das ständige Gegenüberstellen fördern würde wären die Flamewars. Ich finde es sogar gut dass CB bei dieser kleinen News nicht wieder Nvidia und deren Framelatenzen rauskramt.

Edit:

ist nur wieder klasse zu sehen, dass die größten Anti CB Flames von denen kommen, die eine HD7XXX ihres Eigen nennen und sich wohl irgendwie der Qualität ihres Produktes beraubt fühlen. Wenn ihr die Probleme nicht nachstellen könnt seit froh und textet das hier, aber schon der 2. Post sagt ja dass das Problem wohl existent ist (vollkommen egal wies bei der Konkurrenz aussieht).

Konstruktive Kritik sieht anders aus. Und ich bin absolut bei denjenigen, die sagen, dass die Thematik Latenzen generell genauer durchleuchtet gehört. Vielleicht liegt es ja auch im Intel System.
 
Zuletzt bearbeitet:
Man müsste auch mal sehen, dass immer die gleichen Frames angezeigt bzw. gerendert werden und welche übersprungen werden. In dieser Form immer noch mangelhaft, nicht nur aus statistischen Gründen.
 
Zuletzt bearbeitet von einem Moderator:
GreatEvil schrieb:
Als ich das Problem bei der GTX 680 angesprochen und dann mit eigenen Erfahrungen untermauert hab ist das Ganze als unwahr abgetan wurden. (So nett wurde das natuerlich nicht geschrieben...)

Es stimmt zwar, allerdings sind es maximal 3%, was daran liegt dass der Boost der GTX 680 nicht Temperaturabhängig ist.
Aufgrund dessen werden wohl viele dir das entgegnet haben.

Krautmaster schrieb:
Muss ich jetzt bei jeder News die ein Problem betrifft den ganzen Markt durchleuchten? Framelatenzen findet sich in jedem aktuellen GPU test auf CB. Das reicht doch wohl.
Warum übersteigerst du es? Hast du es nötig? ganzer Markt?

Seit den Framelatenzmessungen sind Wochen vergangen, nur mal zur Info.

Viel interessanter wäre es das Problem auch mal bezüglich Systemkonfiguration / AMD / Intel / CPU Features / Power Settings zu durchleuchten. In einem gesonderten Artikel.

Was manche hier abkotzen... dabei kann man eigentlich froh sein dass sich CB einer solchen Sache annimmt und und die release Notes zum Treiber auf die Prüfung stellt.

Ja das Problem wäre dahingehen sehr interessant.

Das Problem ist nur, wie sich CB der Sache annimmt ist ab aktuellem Stand wieder fast Richtung mangelhaft. Das ist das Problem.
Froh sein kann man darüber nicht, nein, egal welche Hardware man hat.

reißerischen Titel?

Ja, weil der Untertitel nicht zutrifft. Und man von Problemen in Tomb Raider spricht, aber man bei Nvidia diese Begrifflichkeit im Framelatenztest nicht benannt hat.

Das einzige was das ständige Gegenüberstellen fördern würde wären die Flamewars. Ich finde es sogar gut dass CB bei dieser kleinen News nicht wieder Nvidia und deren Framelatenzen rauskramt.
Wie kann man so etwas Angesichts der im 3D Center diskutierten Thematik gut finden?
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@CB

könnt ihr mal einen test mit

EIST off

+ eventuell

SMT off

machen?

Ich gehe stark davon aus, dass bei beim CB-Testsystem für Grafikkarten die Stromsparmechanismen der CPU sowieso deaktiviert sind. Das wird man sinnvollerweise schon deshalb machen, um möglichst konstante und reproduzierbare Ergebnisse zu bekommen.

Ein spezieller Artikel, in dem der Einfluss solcher Einstellungen auf Frameraten- und besonders -Latenzen verglichen wird, wäre natürlich interessant. In der Praxis werden höchstwahrscheinlich die meisten Spieler die Stromsparfunktionen und auch SMT nutzen.

Bei den üblichen Benchmark-Artikeln würde ich aber wie gesagt auch weiterhin auf dynamische Stromsparfunktionen verzichten. Die sind einfach zu unberechenbar und können Ergebnisse verzerren. Ein Benchmark soll ja sowieso eher keine praktischen Bedingungen widerspiegeln, sondern vor allem solide Zahlen zum Vergleich von verschiedenen Karten untereinander liefern.
 
Zuletzt bearbeitet:
samuel89 schrieb:
Warum übersteigerst du es? Hast du es nötig? ganzer Markt?

Seit den Framelatenzmessungen sind Wochen vergangen, nur mal zur Info.

dabei ging es nicht um Framelatenzen im Speziellen. Ich finde es nur falsch bei jeder News die ein Thema anspricht immer dirket Parallelen zum ganzen Markt ziehen zu müssen und am besten noch direkt alles selbst nachzuprüfen.
Dann müsste ich beim Lockscreen Bug in iOS 6.1 direkt Parallelen zum Timing Problem bei Samsung Lockscreen oder Gefrierfach Hack ziehen und das wäre der Stimmungsmache auch nicht dienlich.

Was CB macht ist die Unterschiede der Treiber vergleichen, unabh. vom System, unabh. von AMD / Nvidia. Die News zeiht nicht viel mehr als dass der Treiber etwas Besserung bricht, nicht aber generell das bringt was die Release notes behauptet.

Und mehr soll der Artikel den AMD Besitzern auch gar nicht sagen.

Es steht den Usern hier ja offen neutral vielleicht generell das Thema zu durchleuchten, hier Latenzen von diversen Systemen unabh von GPU und Treiber zu posten die aufzeigen "Hallo, das hat mehr mit dem System als mit dem Treiber zu tun...) - kann man aber auch neutraler machen als hier direkt mit Unterstellungen um sich zu werfen. Steht ja jedem frei sich auf anderen Seiten zu informieren oder sich abzumelden.
 
Bei den üblichen Benchmark-Artikeln würde ich aber wie gesagt auch weiterhin auf dynamische Stromsparfunktionen verzichten.

Wie User-Relevant ist dann die Gesamtaussage eines Benchmarks, wenn sie eben praxisfern erstell worden ist?

Ein Benchmark soll ja sowieso eher keine praktischen Bedingungen widerspiegeln

Ich weiß nicht wie es dir dabei geht, doch schaue ich mir genau deswegen die Benchmarks an! Ich will wissen was die Karte zu leisten im Stande ist bei Konfig. XYZ, ohne sie in meinen Rechner zu bauen.

Wenn ich dann ermittelte Werte, zwecks Vergleichbarkeit praxisfern, anschaue, dann interessieren die mich nicht die Bohne.

Hier prallen wohl 2 gegensätzliche Ansichten aufeinander...
 
Krautmaster schrieb:
ist nur wieder klasse zu sehen, dass die größten Anti CB Flames von denen kommen, die eine HD7XXX ihres Eigen nennen und sich wohl irgendwie der Qualität ihres Produktes beraubt fühlen.

Es Flamen eigentlich nur 2 Personen, alle anderen fordern bessere Tests.
Ich kann nicht verstehen, warum du einserseits darauf rumreitest, dass AMD Fanboys hier irgendetwas Bashen, und auf der anderen Seite argumentierst, du dass diese News doch eh nur für AMD User ist, ganz unabhängig von Nvidia.

Irgendwo rieche ich da eine Doppelmoral.

Es ist ja auch nicht schlimm, wenn CB auf diese Problematik hinweist, nur kann man denke ich schon dass man etwas wissenschaftlicher und neutraler schreiben kann.

Im Fließtest steht, dass AMD mit den Betas 13.2 und 13.3 einmal massiv in anderen Spielen an der Problematik gearbeitet hat und mit dem Beta 13.3 in dem ersten Spiel geringe Erfolge und um zweiten alles bis auf einen einzigen Ausreißer ( der nicht an der Karte hängenmuss) glattgebügelt hat.

Und dann wird in der zweiten überschrift schon wieder polarisiert mit nicht zutreffendem Inhalt.
Ich finde das schlecht. Wenn du es gut findest ist das deine Meinung, ich kann sie aber nicht nachvollziehen.
 
Zuletzt bearbeitet:
Der Untertitel ist sehr schlecht gewählt. Er unterstellt AMD eine glatte Lüge, und steht im Gegensatz zum Ergebnis des Artikels, der AMD eine Besserung bescheinigt. Qualitative Urteile würde ich nicht fällen wollen, wenn ich so wenig Fachkenntnisse wie der Autor hätte. Was ich von der Entdeckung der Framelatenz halte, hatte ich bei dem damaligen Artikel ja schon geschildert.
Mit dem Thema ist aber offensichtlich nicht nur CB überfordert. Vielleicht sollte man mal ein paar Nachhilfestunden bei einem AMD-Ingenieur nehmen.
 
Zuletzt bearbeitet von einem Moderator:
ist nur wieder klasse zu sehen, dass die größten Anti CB Flames von denen kommen, die eine HD7XXX ihres Eigen nennen und sich wohl irgendwie der Qualität ihres Produktes beraubt fühlen.

Da ist sie wieder die Fanboyecke. Ja ne ist klar sobald man ne Karte von nem bestimmten Anbieter hat wird man in ne Ecke gedrängt und darf nicht mehr auf umfassende Informationen drängen? Ein Totschlagsargument!

Keiner will hier Nvidia bashen oder AMD entschuldigen weil es bei Nvidia diesbezüglich auch Probleme geben könnte. Ich will infos mit unterschiedlichen Konfigurationen, Spielen, Auflösungen. Nix anderes. Wie gesagt, das machen andere Seiten besser.
 
@ex()n
Einen wirklich praxisnahen Benchmark kann man doch gar nicht machen. CB müsste hunderte verschiedene Konfigurationen und Einstellungen mit hunderten verschiedenen Spielen testen, um auch nur einem Bruchteil von dem nahezukommen, was die Leser bei sich zu Hause stehen haben.

Es ist sinnlos, das auch nur anzustreben.

Bei einem Benchmark geht es viel mehr darum, so viele beeinflussende Faktoren wie möglich auszuschalten. Aus dem Grund wählt man für einen Grafikkartentest normalerweise auch eine möglichst starke, übertaktete CPU, so dass das CPU-Limit so gut es geht wegfällt. Und man deaktiviert wie gesagt automatische dynmische Energiesparfunktionen.
Dadurch entfernt man sich zwar von dem, was die meisten Leser in der Praxis erleben, aber man bekommt nur so saubere, reproduzierbare Vergleichswerte der Karten untereinander, ohne dass etwas anderes da mit rein funkt.

Aufgrund dieser relativen Vergleichswerte kann man dann mit etwas Hintergrundwissen ableiten, wie sich die Karten im eigenen System ungefähr verhalten würden. Bzw. zumindest welche Karte sich besser schlagen würde als die andere.

Aber es wird niemals möglich sein zu sagen:
"CB hat mit der Karte XY in Spiel Z durchschnittlich 60fps hinbekommen, also kann ich das auch bei mir zu Hause erwarten."
 
Die Auswirkungen von EIST, C1E und SMT u.ä. sind dennoch relevant.

Was nützt mir ein Benchmark, wenn ich zu Hause deswegen Mikroruckler habe? Dann ist der gesamte Test dezent gesagt für Arsch
 
Zuletzt bearbeitet:
@Herdware

Mir ging es nicht in erster Linie um die Grundaussage "Grafikbenchmarks", mit der du natürlich recht hast, sondern jetzt spezifischer auf dieses Problem bezogen.

So ziemlich 99% der User haben die Stromparmodi in ihren Rechnern aktiviert - und werden diese auch tunlichst aktiviert lassen.

Wenn ich diese nun bei diesem Framelatenztest ausschalte, verzerrt es die komplette Vergleichbarkeit der Karten untereinander, weil dies eben nicht praxisbezogen ist.

Das an und ausschalten soll letztlich dazu dienen, der Ursache dieses Problem auf die schliche zu kommen.
 
@ex()n
So sehe ich das auch. Ein spezieller Test, in dem man den Auswirkungen von dynamischen Energiesparfunktionen und anderen Einstellungen auf den Grund geht wäre sehr interessant.

Aber das ist halt nichts für die üblichen Vergleichs-Benchmarks von neuen Modellen. Das muss man in einem separaten Artikel behandeln. So wie seinerzeit die Artikel über CPU-Limitierungen.
 
Computerbase hat auch Frametimes von nVidia-Karten veröffentlicht.

Es geht schlicht darum, dass dieses Problem bei NV nicht öffentlichkeitswirksam ausgeschlachtet wird wie hier bei AMD.
Dadurch entsteht ein verzerrtes Bild, was hier auch stets kritisiert wird.

Man sollte sich hier bitte nicht auf Gipsel im 3D Center einschießen.
Es wird von zig anderen Usern und Testungen berichtet, die alle eine Überschneidung der Ergebnisse beinhalten.
 
@CB

Das Problem tritt auch bei NV Karten auf, z.B. bei BF3.
Könnt ihr bitte ein kleines Special dazu machen und untersuchen, inwiefern das Problem auf AMD und NV Karten auftritt und welchen Einfluss die CPU (Intel, AMD) dabei hat?
 
Zurück
Oben