Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

@Iscaran & @Smartcom5
Ich glaube zwar nicht dass das Thema irgendwie vom NDA betroffen sein könnte, aber der unbekümmerte Umgang von CB lässt natürlich erstmal die Alarmglocken schrillen.

Da müsste man aber schon wahnsinnig die Hosen voll haben wenn man so handelt. Aber eine nVidia Tendenz muss man sich hier ja nicht erst seit heute nachsagen lassen.
 
  • Gefällt mir
Reaktionen: Knuddelbearli und Iscaran
Taxxor schrieb:
Bei diesem Passus geht es ausschließlich um Informationen, die die Redaktion von Nvidia erhalten hat und die nicht einfach jeder selbst herausfinden könnte, deshalb ja vertraulich.
Das ist eine schöne Umschreibung von Dir, um zu sagen, daß Du die Formulierung und den Sinn desselben etwas „im vorauseilenden Gehorsam“ zu tun, anscheinend nicht kennst …

Dir ist bewußt, weswegen Heise & Co die beunruhigend naheliegende Gefahr sahen, daß Redakteure (den Terminus ›Journalisten‹ möchte ich mir an dieser Stelle verbitten, aus offensichtlichen Gründen …) sehr wahrscheinlich freiwillig einknicken und bereitwillig eine positive Berichterstattung von sich aus betreiben werden – um sich nicht dem Argwohn von nVidia auszusetzen? Nein? Dachte ich mir.

Genau aus jenem Grund, weswegen die Artikelüberschrift ohne Umschweife als befangen und vorurteilsbeladen bezeichnet werden kann (wie so oft). Und präzise aus diesem Grund haben hier im Thema auch schon wiederholt Leser die tendenziöse Artikel-Überschrift beanstandet (weil das Abschneiden von nVidia bereits im Titel nicht realitätsnah [und damit der Wahrheit entsprechend] wiedergegeben wird). Ganz im Gegenteil, die Überschrift war einmal mehr durchaus wohlwollend formuliert getroffen worden, zumindest was nVidia betrifft.

Goethe sagte einmal, „Man bemerkt die Absicht und ist verstimmt.“ Wohl wahr.

Das perfide daran ist, daß man es den jeweiligen Redakteuren (obwohl offensichtlich) nicht einwandfrei beweisen kann. … und genau deswegen funktioniert es leider, wie @Iscaran schon so treffend aufzeigte.
Taxxor schrieb:
Es ist und bleibt eine Überschrift, die nicht im geringsten die Ergebnisse wiederspiegelt.
Korrekt.
Ich glaube genau so etwas hatten wir letztens hier schon einmal, wo sich ein Haufen Leute aufgeregt haben …

Ach stimmt ja; Es war ein Test der AMD APUs mit einer geradezu verunglimpfend wirkenden Überschrift als absolut unkühlbare Hitzköpfe darstellte, von einer Temperaturexplosion die Rede war und der auch sonst in jeder nur erdenklichen Art und weise manipulativ (leider erfolgreich) versuchte, das Produkt von AMD in den Schmutz zu ziehen. *hust* Stock-Kühler gegen High-Performance-OC-Kühler! *hust*

Bei allem gegebenen Respekt, aber wenn man da und bei solchen Praktiken nicht eine gewisse Tendenz erkennt, dann kann man echt nicht mehr helfen … Da hat @Ko3nich leider nun einmal Recht mit seinem „Hose voll“ …


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA, Ernie75, unspektakulaer und 6 andere
@Smartcom5 So unsympathisch ich nVidia auch finden mag, die Berichterstattung von heise zum NDA war reißerisch und die Regeln nichts ungewöhnliches für ein eben solches — GamersNexus hat dazu mit einem Anwalt gesprochen und dieses Q&A online gestellt.

Trotzdem hast Du Recht, die Überschrift zum APU-Test war absolut unnötig weil faktisch irrelevant und bei dieser Überschrift könnte man etwas klarer herausarbeiten, dass sich die (getesteten! Sind ja nur zwei Modelle, auch wenn duskstalker freundlicherweise auf einen anderen Bericht hingewiesen hat, in dem auch andere Karten der Hersteller getestet wurden und sich ein ähnliches Bild zeichnet) Karten der unterschiedlichen Hersteller auch unterschiedlich verhalten.
 
  • Gefällt mir
Reaktionen: Smartcom5
Es mag sein, daß sie reißerisch war. Ich würde eher sagen, sie war gewollt überzogen. Warum?
Um einen entsprechend wirksamen Weckruf herbei zu führen – und damit auf eine (ohne Frage seitens nVidia) beabsichtigte Praxis hinzuweisen.

Denn, und man möge mich hier gern korrigieren, wenn ich hier falsch liege, aber meines Wissens nach hat es eine solch krasse repressive Art und Weise eines Herstellers gegenüber der öffentlichen Presse niemals zuvor gegeben. Niemals zuvor hat ein Hersteller vorgeschrieben, daß die Berichterstattung ausschließlich positiv zu erfolgen hat.

Klar, es gab immer wieder Review-Leitfäden, selbst solche, die bis in‘s kleinste Detail vorschlugen, wie man das jeweilige Produkt denn bitte testen möge. Trotz allem waren sie immer unverbindlich. nVidia‘s Verschwiegenheitsvereinbarung war definitiv ein mächtiger Schritt in jene Richtung daß ein Hersteller ›seine‹ Pressearbeit der bis dato weitestgehend unabhängigen öffentlichen Medien und Publikationen diktiert und sie zu „auf Linie getrimmten“ Haus-Vermarktern degradiert.


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: unspektakulaer, Thraker und s0UL1
Mustis schrieb:
Wie kommt man jetzt bitte drauf, dass das kein Treiberproblem sein wird? Bei der Vega zu Release wurde die miese Leistung ausschließlich auf die Treiber geschoben...

Dan besteht das Treiberproblem bereits 2 Jahre, ich denke Nvidia wird in diesem Szenario einfach weniger leisten können.

Ko3nich schrieb:
@Iscaran & @Smartcom5
Ich glaube zwar nicht dass das Thema irgendwie vom NDA betroffen sein könnte, aber der unbekümmerte Umgang von CB lässt natürlich erstmal die Alarmglocken schrillen.
Ihr interpretiert da einfach zu viel hinein.
Computerbase schreibt beim Directx12 WoW Test AMD Karten werden schneller gemacht obwohl sich außer im Bereich der Messungenauigkeit nichts ändert.
Man kann als Redakteur eben nicht alles immer zu 100% richtig machen.
Manche lesen auch nur das was sie wollen.

Das Gehirn selektiert bei Vorurteilen einfach die Dinge die nicht in das Denk-Schema passen eher aus.
 
Zuletzt bearbeitet:
@Smartcom5 Das "for the benefit" ist eine rein juristische Formulierung und heißt wohl sowas wie "on behalf of", ich empfehle das Video von GamersNexus (vgl. 6 min 4 sec) da ich selbst kein Experte bin und schon deutsche juristische Texte sehr ungerne lese, weil verschiedene Wörter doch anders gebraucht werden als im üblichen Sprachgebrauch.

Dass nVidia kein lustiges Unternehmen ist, ist völlig klar, an dem NDA ist aber vermutlich eher nichts verwerflich, sofern man der Presse trauen kann, die im wesentlichen geschlossen eher die Gegenposition zu heise vertreten; heise selbst soll übrigens einen noch nicht fertig ausgetragenen Streit mit nVidia im Vorfeld gehabt haben, wie von ComputerBase in deren Stellungnahme erwähnt. Wenn das tatsächlich stimmt, würde ich den Artikel erst recht eher als reines Clickbait verbuchen.
 
  • Gefällt mir
Reaktionen: Ludwig55 und Colindo
Smartcom5 schrieb:
Genau aus jenem Grund, weswegen die Artikelüberschrift ohne Umschweife als befangen und vorurteilsbeladen bezeichnet werden kann (wie so oft).
Zu Wolfgangs Verteidigung muss man ihm aber zu gute halten, dass eigentlich der komplette Artikel keine Sternstunde war.:heilig:

"Denn intern rechnen Grafikkarten bereits seit langem mit einer höheren Präzision, als für die reine Bildausgabe benötigt wird. "
Dort stellt sich die Frage, liegt es an den 10-Bit, dann betrifft das nicht alleine HDR, sondern eine Menge anderer Monitore: https://geizhals.de/?cat=monlcd19wide&xf=11939_23~11959_10bit+(1.07+Mrd.+Farben)~11959_8bit+++FRC+(1.07+Mrd.+Farben)

"Auf der anderen Seite finden sich im Internet immer mal wieder Kommentare von einer schlechteren Geschwindigkeit im HDR-Modus."
https://www.heise.de/newsticker/mel...eber-HDMI-nur-mit-8-statt-10-Bit-3488970.html
Heise und Gamestar auf "Kommentar"-Level herabzustufen ist schon etwas merkwürdig, wenn er im Netz recherchiert hat ist es schwer vorstellbar, dass er nur Kommentare gefunden hat.

"ComputerBase steht mit Nvidia diesbezüglich in Kontakt. Bis jetzt hat es aber noch keine Antworten gegeben."
Keine Antwort von Nvidia, warum wartet man darauf nicht? Ist die Erkenntnis so bahnbrechend, dass man damit unbedingt raus muss?

"Spiele, die mit HDR keine Performance verlieren. Interessanterweise sind es nicht dieselben Titel, GeForce reagiert anders als Radeon."
Also die Ausreisser sind zumindest absolut identisch. MEA auf der einen Seite und Destiny 2 auf der anderen Seite. Da wäre es bedeutender zu erwähnen, dass abseits von MEA, die 1080 in HDR immer auf dem letzten Platz im FPS-Durchschnitt liegt. Was durchaus erheblich ist, schliesslich liegt die 1080-SDR teilweise zweistellig vor der Vega-SDR.


"Der Unterschied ist viel größer als bei einer oder auch zwei höheren Detailstufen, sodass eben jene reduziert werden können und das Spiel dennoch schöner aussieht. Unter Umständen müssen dann jedoch auf einer GeForce mehr Details reduziert werden als auf einer Radeon."
Welche 1-2 Detailstufen soll man denn reduzieren um 1% Leistungsverlust auszugleichen? Für die Radeons ist das völlig überdramatisiert. Selbst bei Nvidia finde ich den ersten Satz schon hochgegriffen.


Auch wenn ich den Artikel nun etwas zerpflückt habe, trotzdem an dieser Stelle noch mal vielen Dank für diesen Artikel. Insgesamt schien es für die meisten ein neuer Hut zu sein, und der Artikel hat sich definitiv gelohnt.
 
  • Gefällt mir
Reaktionen: Mcr-King und Iscaran
Irgendwie bin ich etwas irritiert, nach dem Titel hatte ich ganz andere Ergebnisse erwartet. Für den Schlagabtausch zwischen den jeweiligen auf Augenhöhe agierenden Duellpartnern ist das eine ziemliche Breitseite.

Ein Titel wie "Bei Verwendung von HDR verliert NVIDIA überraschend deutlich!" wäre doch ein prima clickbait, und das ohne zu Lügen! :D

Letztendlich ändert das zwar nichts daran das meine 1080 TI weiterhin deutlich flotter arbeitet als die schnellste AMD Karte, interessant ist es trotzdem. IMHO ist AMD preis-/leistungstechnisch auch so schon im Vorteil wenn man den Monitor (also AMD + FreeSync vs. NVIDIA + G-Sync) in die Überlegung mit einbezieht, aber vermutlich wird sich am Marktanteil nichts ändern solange die stärkste AMD Karte nicht mit der dicksten NVIDIA mithalten kann. Schade.
 
  • Gefällt mir
Reaktionen: smart-
Erstaunlich wie viel Leistung so eine Vega teilweise hat. Schade das dies nicht in jedem Spiel so ist. So manches Game mit HDR oder Direct X 12 schmeckt Nvidia anscheinend nicht bzw. dazu gehört also jetzt nicht nur Direct X 12 sondern auch HDR...
Hätte nichts dagegen wenn sich das Blatt ändern würde und AMD einer 1080 TI voraus wäre... Somit könnte man deutlich am Monitor sparen und sich den saftigen Aufpreis zu Gsync sparen da die AMD Karten mehr als Konkurrenzfähig wären... Eventuell würden sich dann die Preise auch wieder etwas normalisieren und man könnte davon träumen das wirkliche High-End-Karten wieder um die 500 Taler kosten würden, so wie früher...
 
Zuletzt bearbeitet:
Xood schrieb:
Was mir fehlt, oder wurde das bereits mal irgendwo im Detail erklärt, ist der visuelle Unterschied.
Ich finde es ok wenn HDR Performance kostet, genau so kostet eine höhere Auflösung ja auch Performance.
Aber was bekomme ich denn dafür, ist es besser, was ist schlechter?
Wenn z.B. im Artikel steht das üblich RGB 8 Bit und nun 4:2:2: 10 Bit übertragen werden dann sagt das einmal das wir mehr Farbabstufungen haben, aber gleichzeitig eine Komprimieren. Wie wirkt sich das ganze dann aus?

Das ist so in etwa als ob du nach den Vorzügen von Fullhd fragst und guckst dir dann Vergleichsbilder auf 1024*768 an.

Wenn du den Unterschied sehen willst musst du dich schon zum nächsten Elektrofachmarkt bewegen und selber gucken...
 
VAN DOOM schrieb:
Erstaunlich wie viel Leistung so eine Vega teilweise hat. Schade das dies nicht in jedem Spiel so ist. So manches Game mit HDR oder Direct X 12 schmeckt Nvidia anscheinend nicht bzw. dazu gehört also jetzt nicht nur Direct X 12 sondern auch HDR...
AMD konnte schon immer etwas besser mit DX12 umgehen, Nvidia holt aber mit jeder neuen Grafikkartengeneration auf, könnte gut sein, dass Turing bei DX12 mal genauso schnell ist wie AMD. Wobei man wirklich sagen muss, wenn die Turing jetzt wirklich in den nächsten 2 oder 3 Monaten kommt, dass man derzeit bis das diese GDDR6 Speicher bekommt, noch überhaupt nichts bekannt ist. :confused_alt:

VAN DOOM schrieb:
Hätte nichts dagegen wenn sich das Blatt ändern würde und AMD einer 1080 TI voraus wäre... Somit könnte man deutlich am Monitor sparen und sich den saftigen Aufpreis zu Gsync sparen da die AMD Karten mehr als Konkurrenzfähig wären... Eventuell würden sich dann die Preise auch wieder etwas normalisieren und man könnte davon träumen das wirkliche High-End-Karten wieder um die 500 Taler kosten würden, so wie früher...
Ja Träumen darf man immer, nur leider habe ich die Hoffnung schon aufgegeben, was ein Freesync auch bei Nvidia betrifft. So wie es aussieht, ziehen die das mit Gsync durch bis zum jüngsten Tag! Und so lange AMD nicht im Oberklasse und High End Sektor eine Grafikkarte bringt, die mit den Nvidia Modellen mithalten kann, auch was Effizienz betrifft, wird sich an dieser Situation auch nichts ändern. Weil die User immer in der Mehrzahl das Produkt kaufen, was letztlich mehr Leistung in Form von FPS in Verbindung mit Effizienz liefert.
 
Ich frage mich nach dem lesen dieses Artikels exakt zwei Dinge.

1.) Wieso spiegelt der Titel die Testergebnisse überhaupt nicht wieder?

2.) Wieso kann nicht klipp und klar sagen, dass NVIDIA teils 10%+ einbüßen muss mit HDR, AMD aber teils nur 1-3%, teilweise sogar gar nichts verliert?

Damit stößt man sich doch keinen Zacken aus der Krone.

Ganz komischer Artikel.

Liebe Grüße
Sven
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ernie75, GUN2504, Thraker und 8 andere
Zeit wirds für die 1180, damit das Problem endlich gefixt wird.
 
@Mugi deine Reaktion zu dem Thema ist die nächste nvidia gpu? Ok. :daumen:

@topic

Ich finds alarmierend, dass CB hier nichts unternimmt. Der Artikel ist schlampig verfasst und die headline eigentlich unhaltbar. Wieso wird der Artikel nicht aktualisiert? Korrigiert doch mal die Fehler in euren Artikeln, und das nicht erst nach 3 Wochen. Das fischelt ziemlich.

Es ist ausserdem bezeichnend, wie oft das in letzter Zeit vorkommt. Wenn ich mit so einer "Fehler"toleranz arbeiten würde, würde ich nicht mehr arbeiten.

Ich kann CB so einfach nicht mehr ernst nehmen. Entweder wirds Zeit den einen oder anderen Redakteur in Frage zu stellen oder mal die generelle Ausrichtung der Seite zu überprüfen. Ihr habt auch eine Verpflichtung denjenigen gegenüber, die sich nicht so gut mit Hardware auskennen und sich auf eure Aussagen verlassen.

Gerade nach dem nvidia NDA Aufruhr sollte es doch im Interesse von CB sein, sowas hier zu vermeiden.
 
  • Gefällt mir
Reaktionen: unspektakulaer, Matzegr, s0UL1 und 4 andere
Nitr0up3 schrieb:
Warum fehlt in den Benchmarks immer die 1080 ti?
Die kann ja in ein paar Jahren wieder herangezogen werden, wenn selbst die 1080Ti stehen gelassen wird.

Sowie bei der 7970 wo heute selbst eine GTX680 kein Land sieht obwohl die 7970 die meiste Zeit preislich der 670 gegenüber Stand. ;)

Aber Turing ist ja bald da. Dann sieht's wieder dürftig aus mit der Optimierung und die reine Rohrleistung der betagten Kontrahenten wird wichtiger.
 
So HDR ist ursprünglich aus dem Profibereich TV hin oder her, also was macht NV um Chips klein zuhalten genau Sachen streichen. Diese wirken sich jetzt negativ aus und da HDR ein Vesa Standard ist kann auch nicht getrickst werden was NV so gerne macht siehe GTX1050/60 3GB Schatten und Texturen Täuschung oder Gamemurks und und.

Wie gesagt mich würde auch mal ein vergleich 10 Bit vs 6 Bit Monitor interessieren, habe nämlich einen.
 
Finde ich gut dass es endlich mal einen Test dazu gibt. Bisher gab es ja nicht viel Information über das Performanceverhalten unter Beigabe von HDR.
 
Hallo zusammen,

@ Mcr-King

Mcr-King schrieb:
So HDR ist ursprünglich aus dem Profibereich TV hin oder her, also was macht NV um Chips klein zuhalten genau Sachen streichen.

Es gibt mehrere bzw. hat zuerst mehrere HDR Standards / Versionen von verschiedenen Firmen gegeben, es ist noch nicht lange her, daß man sich entsprechend gemeinsam auf einen Standard geeinigt hat. Und zum Zeitpunkt, als die jetzigen Karten von Nvidia kamen, war HDR im Spielebereich überhaupt noch nicht so denkbar.

Und ehrlich gesagt sehe ich da keinerlei Grund zur Panik oder gar Verschwörungstheorien aufzustellen. Denn man muß sich nur mal Anschauen, wieviele Leute hier unter 4K Spielen. Bei den normalen Gamern sind das nochmal weniger. Von HDR ganz zu Schweigen. Bis das wirklich in der Masse angekommen ist, wenn überhaupt, sind 2-3 weitere Grafikkartengenerationen auf dem Markt.

Aber damit kein Mißverständnis entsteht. Den Test finde ich ebenfalls gut. So kann auch frühzeitig der Finger in die Wunde gelegt werden, sozusagen.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard
Nun stellt sich die Frage ob Konsolen ähnlich reagieren wie Windows PC mit einer Vega.

Weiß jemand ob sich Digital Foundry die Mühe gemacht hat die Performance mit HDR zu untersuchen?
Ergänzung ()

Mracpad schrieb:
Letztendlich ändert das zwar nichts daran das meine 1080 TI weiterhin deutlich flotter arbeitet als die schnellste AMD Karte, interessant ist es trotzdem. IMHO ist AMD preis-/leistungstechnisch auch so schon im Vorteil wenn man den Monitor (also AMD + FreeSync vs. NVIDIA + G-Sync) in die Überlegung mit einbezieht, aber vermutlich wird sich am Marktanteil nichts ändern solange die stärkste AMD Karte nicht mit der dicksten NVIDIA mithalten kann. Schade.

IIrritierend an deiner korrekten Einschätzung ist das es nur für Leute wichtig ist die an den schnellsten Karten interessiert sind welcher Anbieter diese im Angebot hat.

Wer ein Budget hat das dem Preis einer AMD Karte entspricht, braucht sich keine Gedanken darüber machen ob Nvidia für deutlich mehr Kohle eine schnellere Karte im Angebot hat.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cbmik
Interessant das die Geforce Karten bei HDR so sehr einbrechen und es die Radeons herzlich wenig interessiert.
Entweder arbeitet die Kompression nur noch unzureichend und die geringe Speicherbandbreite wird ihnen zum Verhängnis oder die Radeons arbeiten intern bereits mit der höheren Farbtiefe. Da gab es in der Vergangenheit bereits entsprechende Unterschiede.
 
Zurück
Oben