Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Taxxor schrieb:
Ich weiß gar nicht wo die Unsicherheit herkommt.
Du musst doch nur schauen, was für den CPU Test genutzt wird.
Wollte nochmal auf diesen Punkt eingehen. Die Szenen im CPU-Test sind andere als im GPU-Test. Also ist das Argument nicht ganz richtig. Dein Beispiel mit der 2070S, 2080 und 2080 Ti mit der jeweiligen Skalierung finde ich aber einleuchtend. Wobei man selbst bei Verwendung eines 10900k einen Auslastungshinweis in den Balken bräuchte, um die Ursache einer schwankenden Skalierung auszumachen. Ein 10900k wäre für diese Betrachtung also kein Allheilmittel.

Deswegen würde ich sagen, dass ein Auslastungshinweis zwingend erforderlich ist, und ein möglichst leistungsfähiger Prozessor notwendig, um so viele präzise Aussagen wie möglich zu treffen.
 
ZeroStrat schrieb:
Mittlerweile ist man schon bei 5.5GHz.
Aha. In einem Labor unter Optimalbedingungen? Und einem speziellen Intel Bench? Mit Heliumkühlung und 300W Verbrauch?
Bevor mans nicht kaufen kann, sind das alles nur Geistergeschichten.
Achtung, persönliche Meinung: die IPC soll verbessert werden, die CPU Kerne dicker (mehr Transistoren) etc, weil alles was weit über 4GHz geprügelt wird, ineffizient wird was die Leistungsaufnahme betrifft.
Oder sind das alles Zweit-, Dritt-, und Viertaccounts von @zeedy mit seinen "massiven" Intel Hochfrequenzkernen? :D
 
  • Gefällt mir
Reaktionen: Kloin
gunmarine schrieb:
1% Leistung vs 20% Leistung durch die Auswahl der CPU. Da gibt es doch keine Frage was schwerer wiegt.

Am schwersten wiegen deine aus der Luft gegriffenen Ergebnisse für einen Benchmark der erst am 16.09 erscheint. Oder hat du die 3000er schon daheim, dann erleuchte uns doch bitte ;-)
 
  • Gefällt mir
Reaktionen: robertsonson
Werdet doch einfach alle CB Pro Mitglied. Dann kann CB noch jemanden einstellen der auch mit nem Intel-System den ganzen Kram bencht.

Hier gehts doch eigentl. nur um Manpower. Und wenn ich PCIe 4 (in welcher Form auch immer) berücksichtigen will, dann muss ich nunmal auch eine Plattform nehmen, die dies unterstützt.
 
  • Gefällt mir
Reaktionen: Londo Mollari und Colindo
Kloin schrieb:
Am schwersten wiegen deine aus der Luft gegriffenen Ergebnisse für einen Benchmark der erst am 16.09 erscheint. Oder hat du die 3000er schon daheim, dann erleuchte uns doch bitte ;-)

Kleiner Intelligenztest:

Eine CPU die schon mit einer 2080 ti 20% langsamer als ein 10900K arbeitet (cb bencht gpus naemlich nicht mit 2933 sondern 3200 CL14) in einem Benchmark der immer noch oft GPU limitiert ist, arbeitet auf einmal mit der 3090 schneller, weil PCI 4.0 mit mehr Bandbreite wichtig sein kònnte, wáhrend ein downgrade von PCI 3.0 X16 auf X8 mit weniger Bandbreite nur 1-2% oder so ausmacht?

Ist es nicht irgendwo logisch, dass ein 9900K oder ein 10900K die bisherigen Abstände zwischen den CPUs mit einer 3090 nicht eher noch vergrössern muesste und man dann so eine CPU nehmen sollte um den effektiven Leistungsunterschied zwischen einer 2080 ti / 3070 und der 3080 und 3090 besser darzustellen, wenn man schon mit der 2080 ti selbst auf nen 5.4 ghz allcore Comet Lake mit 4400 CL16 mit straffen subs ins CPU Limit rennt? Und man mit so einer config in einigen Spielen aus dem CB Parkours 50% höhere FPS als ein AMD System raus bekommt? Welchen Sinn macht es dann noch schnellere Grafikkarten als eine 2080 ti / 3070 zu benchen wenn man jetzt eine langsamere CPU nimmt und dementsprechend gar nicht darstellen kann was die 3080/3090 effektiv für das gebotene Geld an Mehrleistung bringen, gerade in Anbetracht der Tatsache, dass mit Rocket Lake bald eine CPU kommt, die die Karten immerhin besser auslasten kann?

Und an den da oben mit 10% IPC von Rocket Lake, wieso sollen es nur 10% IPC sein wenn bereits icelake 20% IPC gegenueber Skylake hat und Icelake komplett mit angezogener Handbremse in den Notebooks laeuft? rocket lske basiert min. auf icelake und dürfte bereits die tiger lake verbesserungen enhalten...die cpu wird nur auf 14nm zurück geported weil Intel mit der Fertigung die 5 ghz im desktop fahren kann.

Es ist halt wirklich schade, dass Intel wenigstens zum Benchen keine Desktop Icelakes heraus gegeben hat, produziert wurden ja genug ES... da wird auch sicherlich mal ne 5 ghz perle dabei gewesen sein und im zweifel hätte man es mit den üblichen Kühlmethoden der Spezis durch die Bechmarks prügeln können
 
Zuletzt bearbeitet:
gunmarine schrieb:
Kleiner Intelligenztest:

Wir kennen uns nicht aber mit der Einleitung disqualifizierst du dich auf jeden Fall für eine sachliche Diskussion und logische Zusammenhänge stellst du damit auch nicht klarer heraus indem du Random Prozentzahlen um dich wirfst, die ich nicht prüfen kann und will. Ich unterstelle keine bösartige Absicht, aber jeder ist sein eigener Lektor ob er die Möglichkeit nun wahrnimmt oder nicht.

Die einen wollen CPUs testen (9900K, 10900K vs 3900X mit bereits bekannten Ergebnissen), die anderen GPUs mit Plattformen (PCI Gen4, RTX IO, etc.). Wir werden am Mittwoch wissen was die weisere Entscheidung war und was Nvidia an Versprechen gehalten hat. Und selbstverständlich wird die selbe Diskussion wieder losgehen und Prozessoren verschiedener Testsysteme/Redaktionen werden als Beleg für die Überlegenheit über andere Testsysteme/Redaktionen verwendet.
 
  • Gefällt mir
Reaktionen: Londo Mollari
Du kapierst es einfach nicht, wie willst du sachlich und wissenschaftlich korrekt eine Aussage zur absoluten Leistungsfähigkeit von Grafikkarten treffen wenn du die Grafikksrtrn ausbremst? du hast mir nicht 1 Argument geliefert was meine Aussage entkräftet, genauso wie Taxxor es nun auch 100 mal versucht hat zu erklaeren, aber es geht einfach bei manchen nicht in die Birne rein wenn man GPUs hat die 50% hoehere Leistung bieten, aber man im worst case nur 10% messen kann weil man die GPUs uebertrieben gesagt mit ner AMD CPU verkrueppelt. Dann lautet das Fazit ja die neue GPU liefert nur 10% mehr Leistung. Gratulation. Wieso benchen wir nicjt gleich wieder auf nem 2500K? die cpu leistung ist ja zweitrangig denke ich, viele haben ja noch einen, also ist das ja dann praxisnah oder?

Folgende Situation, du hast 10 Spiele, die 2080 ti kann immer maximal 100 fps liefern.

2080 ti 100 fps
3080 120 fps
3090 150 fps.

Jetzt hast du 5 Spiele wo der AMD 100 FPS liefert, 2 Spiele wo er 60-70 bringt und 2 Spiele wo er 70-80 fps liefert und eins mit 90 FPS. Im Schnitt ist die CPU dann vllt 15-20% langsamer oder so, immerhin liefert er ja in 5 Spielen auch 100 FPS genau wie der Intel, der liefert in allen Spielen 100 fps.

Jetzt kommt die 3080, der AMD liefert in 2 Spielen immer nur noch 60-70 FPS, in 2 Spielen 70-80 fps und in einem 90 fps, in den 5 Spielen wo er 100 mit der 2080 ti liefert bringt er in einem Spiel 100 fps, dann 110, 115 und 120.

Drehen wir das Rad weiter, nehmen wir die 3090, Da schafft er in einem Spiel 150 FPS und in allen anderen Spielen bleiben die FPS gleich.

Nehm ich jetzt den Intel mit der 3080 der vorher schon überall immer 100 FPS geliefert hat, jetzt schafft der Intel in 9 Spielen 120 FPS und in einem nur 110 FPS.

Nehm ich die 3090, dann liefert er in 5 Spielen 150 FPS, in 4 Spielen 140 FPS und in einem Spiel immer nur noch 110 FPS.

Was würde uns jetzt ein Test mit dem AMD sagen? gar nichts weil die CPU hart limitiert, was sagt uns der Test mit dem Intel? Ach richtig es gibt neue Grafikkarten die mehr Leidtung bringen.

Wenn man doch bereits mit der 2080 ti mit den AMDs staendig ins CPU Limit rennt ist es kompletter Schwachsinn damit die 3090 zu testen, denn die 3090@4K ist hoechstwahrscheinlich quasi wie die 2080ti@wqhd wo das CPU Limit gut sichtbar ist...

seriously wie kann man da noch die Entscheidung von CB verteidigen? nur weil pcgh auch von der Bruecke springt muss CB das auch tun?

PS: Ein Schelm wer boeses denkt wenn CB die Nvidia Karten mit Comedy Lake benchen wuerde und nachher das Forum voll mit beitraegen ist wieso die Nvidia Karten auf den AMD Systemen so lahm sind....hmm vllt ist der Intel doch schneller als manche hier einzugestehen vermoegen?

Ich würde es im übrigen begrüssen, wenn CB ihre Testszenen @Esenel zur Verfuegung stellen wuerden und ihm somit die Chance geben den Parkours mit seinem Intel System mit der 3090 zu durchlaufen damit ihr seine Ergebnisse im Sinne der Community veroeffentlichen koennt.
 
Zuletzt bearbeitet:
Kloin schrieb:
Und selbstverständlich wird die selbe Diskussion wieder losgehen und Prozessoren verschiedener Testsysteme/Redaktionen werden als Beleg für die Überlegenheit über andere Testsysteme/Redaktionen verwendet.

Nicht? Letztendlich hat die Redaktion bei einem GPU Test vor allem die Aufgabe, mögliche Bremsen einer CPU aus dem Test komplett rauszuhalten. Wir wissen welche Vorlieben Wolfgang hat und man darf doch Kritik gerne dort anbringen, wenn es den Test verfälscht.

Ein gutes Beispiel wieso die Entscheidung für das AMD System kritisch anzusehen ist, hat man schon bei dem letzten Flight Simulator Test gesehen.
Alle nachfolgenden Benchmarks wurden auf einem AMD Ryzen 9 3900XT (Test) durchgeführt, der mit den Standardeinstellungen betrieben wird. Als Mainboard wurde das Asus ROG Strix B550-E Gaming (BIOS 0802) mit dem B550-Chipsatz verbaut, kompatible Grafikkarten können entsprechend mit PCIe 4.0 angesteuert werden.

1600092756136.png

https://www.computerbase.de/artikel...2/seite-2#diagramm-flight-simulator-1920-1080

Den folgenden Satz werden wir dann vermutlich öfters zu hören bekommen.
In 1.920 × 1.080 gerät man im Flight Simulator schnell ins CPU-Limit. Ob eine GeForce GTX 1080 oder eine GeForce RTX 2080 Ti im Rechner steckt, macht keinen Unterschied.

Dabei wäre die Sache doch eigentlich recht "einfach".
Update: We've added memory testing to our Microsoft Flight Simulator benchmarks, along with a few more GPUs and CPUs.
https://www.tomshardware.com/featur...or-benchmarks-performance-system-requirements
1600092874161.png
 
  • Gefällt mir
Reaktionen: .Sentinel., ZeroStrat und Esenel
gunmarine schrieb:
die Chance geben den Parkours mit seinem Intel System mit der 3090 zu durchlaufen damit ihr seine Ergebnisse im Sinne der Community veroeffentlichen koennt.
Ein Tipp von mir: Der "Community" ist es herzlich egal ob die 3090 mit der Top CPU von Intel in 1080p 5 oder 10 oder was auch immer wieviel fps mehr liefern könnte/wird als mit der AMD CPU.

Denn erstens ist das für >90% der Community (außerhalb vom CB-Forum, also im "echten Leben" :D, eher >99%) irrelevant, ob sie 140 oder 160 fps bei 1080p haben.
Zweitens wissen diese >90% nicht mal, welches Testsystem überhaupt Verwendung findet, wenn sie sich einen GPU Bench ansehen!
Drittens haben diese >90% eher eine weniger performante CPU im eigenen Rechner als eine äquivalente, geschweige denn bessere, als im Testsystem.
 
Stimmt, mittlerweile hat ja jeder den Asus Swift mit 4K, 144 hz und Gsync und weil der halt so teuer war, war kein Geld mehr für ein Intel System da und man musste zu AMD greifen, daher sind jetzt nur noch 4K Benchmarks wichtig.

Sorry hab total vergessen, dass die ganze Community nur noch in 4K spielt.
 
gunmarine schrieb:
Sorry hab total vergessen, dass die ganze Community nur noch in 4K spielt.
Ich nehme an du nimmst Bezug auf meinen Beitrag?

Nun, nur weil viele (noch) nicht in 4K spielen, bzw. nicht in höheren Auflösungen als Full HD, heißt das nicht, dass diese Wert auf fps jenseits der 100er Marke legen. Das machen die wenigsten.
Wie also sollte das in deren Sinne sein, wenn sie erfahren, dass sie mit einer 3090 statt 140 fps, 160 fps erreichen könn(t)en, eine CPU vorausgesetzt, die sie so oder so nicht haben?

Oder anders: kaum einer wird sich eine der neuen Karten kaufen um damit 200fps in niedriger Auflösung zocken zu können (ausgenommen vlt die wenigen, die ernsthaftes competitive Gaming betreiben).

Oder noch anders: Wenn man in <= 1080p spielt, kann man gerne überlegen, ob eine 3070, 3080 oder 3090 überhaupt die Anschaffung wert ist.
Die "vernünftigeren" schauen auf die fps in dem Szenario, das für sie selbst am ehesten zutrifft, und kaufen womöglich gar keine neue Karte. Die "unvernünftigeren" schauen welche Karte den längsten Balken in 8k Ultrahyperextrem hat, und kaufen diese..im besten Fall. Meist eher träumen sie von dieser, und kaufen ein kleineres Modell.
Und ob der Balken mit einer anderen CPU noch mal 2 oder 5 fps länger wäre, interessiert 99,99% eben nun mal nicht die Bohne.
Ergänzung ()

gunmarine schrieb:
war kein Geld mehr für ein Intel System da und man musste zu AMD greifen
Komische Sicht der Dinge. Ich z.B. habe mich aktuell ganz bewusst für ein AMD System entschieden. Geld genug für ein Intel System wäre noch da gewesen... wüsste aber nicht, welche relevanten vorteile mir das gebracht hätte. Siehe auch meine Erläuterungen weiter oben...

Noch mal zur Klarstellung:
Ich behaupte nicht, dass es niemanden interessieren würde!
Ich wollte nur klar stellen, dass "Ergebnisse im Sinne der Community", dann doch sehr dick aufgetragen ist, weil "die Community" eben im Schnitt dann doch andere Menschen sind, als die von dir vlt vermuteten.
 
Zuletzt bearbeitet:
fuer einen objektiven Test interessiert es aber kein Schwein was in Sinne der Community waere, denn im Sinne der Community ist es auf AMD zu testen, weil die eh nicht will, dass Intel zu gut abgelichtet wird. Es darf einfach nicht sein, dass Intel oft 20-30% in Spielen schneller ist, siehe Anno und da sagt die Community sogar noch Anno muss aus dem Parkours weil zu CPU lastig...ja genau nur weil AMD da komplett abkackt weil die Latenzen der CPU zu schlecht sind, wenn AMD halt nur 60ns beim RAM packt und Intel 35 und die Spiele damit skalieren, wieso soll man das ignorieren?

Und jetzt kommen Grafikkarten raus, wo man noch deutlicher die Unterschiede zwischen einem Ryzen und Intel System sehen kann, gerade weil die CPU Benchmarks von CB immer noch ziemlich stark GPU limitiert werden, dazu noch der Faktor, dass AMD mit B Dies bevorzugt wurde und AMD im Gegensatz zu Intel auf genaue RAM Spezifikationen scheisst, also Feuer frei mit 3200CL14, sind ja momentan nur die besten Kits, auch zum OC beim Intel...

Und was macht CB, entscheidet im “Sinne der Community” und pfeift auf die Objektivitaet. Sehr gut, wenigstens weint dann keiner weil laut CB AMD ja nicht noch mehr in Spielen abkackt als sie es eh schon gegen B Die Comet Lakes tun. Hauptsache die rote Wand ist Glücklich, objektive Tests kann man sich ja woanders dann suchen und man disqualifiziert sich lieber als seriöse Hardwareseite.
 
gunmarine schrieb:
fuer einen objektiven Test interessiert es aber kein Schwein was in Sinne der Community waere
Na das "im Sinne der Community" kam von dir.

gunmarine schrieb:
denn im Sinne der Community ist es auf AMD zu testen, weil die eh nicht will, dass Intel zu gut abgelichtet wird.
Auch hier redest du tatsächlich nicht von "der Community".
Genau so wie es die wenigsten hier interessiert, ob der Balken einer getesteten 3090 in niedrigen Auflösungen (selbst wenn diese die Standardauflösungen sind) nun die maximal mögliche Länge hat oder 20 fps weniger als möglich, so wenig interessiert es hier die meisten ob eine AMD oder eine Intel CPU im Testsystem steckt.

Du schreibst immer "die Community", meinst aber einige wenige im niedrigen einstelligen Prozentbereich.

Ich würde wetten, wenn man all jene, die den kommenden Test der RTX Karten gelesen haben, danach fragen würde, welche CPU im Testsystem steckt, müssten 80% raten, weil sie es nicht wissen, da es ihnen schei*egal ist.
Und DAS ist die Community.
 
  • Gefällt mir
Reaktionen: Londo Mollari
Die Diskussion ist völlig überflüssig. Ich dachte immer, GPU-Benchmarks dienen dazu, die schnellsten GPUs zu ermitteln bzw. ein Ranking derer zu erstellen. Und man kann wohl getrost ausschließen, dass die GPU, die bei 4K am schnellsten ist, bei 1080p plötzlich viel schlechter performt.

1080p-Tests sind doch wirklich nur maximal dafür interessant, wenn man wissen, will, wieviel FPS man bei dem bestimmten Spiel A in so einer Auflösung konkret erwarten kann. Das aber auch nur bedingt, denn wie viele Leute haben schon einen 10900k oder einen 3900X und fahren den gleichen RAM mit gleichen Settings? 98% der Nutzer haben andere CPUs und die interessiert nicht im geringsten, ob die 3090/3080/2080n etc. mit dem 10900K ein paar FPS mehr auf den Bildschirm zaubert als mit dem 3900X. Es ist egal. Es ist sowieso klar und eindeutig, welche Karte auf Platz 1, 2, 3 oder 7 steht.
Dafür gibt es den Testparcour. Und nicht, um zu zeigen, dass Intel bei Spielen noch am schnellsten ist. Dafür gibts CPU-Tests.
 
  • Gefällt mir
Reaktionen: Schattenspender und PS828
Londo Mollari schrieb:
98% der Nutzer haben andere CPUs und die interessiert nicht im geringsten, ob die 3090/3080/2080n etc. mit dem 10900K ein paar FPS mehr auf den Bildschirm zaubert als mit dem 3900X.
Das interessiert sie spätestens dann, wenn sie hier im Forum auftauchen und dann, wenn die Spiele für die CPUs fordernder werden nachfragen, warum deren System immer lahmer wird, obwohl sie doch eine 3080 ihr Eigen nennen.

Es geht hier um Messwerte einer GPU. Um eine Baseline, auf die man sich verlassen können sollte und welche auch eine gewisse Konsistenz für die Zukunft aufweist.
Verfälsche ich das GPU Ergebnis durch die CPU, ist der Test nicht mehr zu gebrauchen, da ich schlichtweg die falschen Maximalwerte ermittle. Nicht jeder hat den gleichen Einsatzzweck für seine Karte. Es gibt auch High- FPS Spieler, die auf eine hohe Auflösung pfeifen.
Deswegen sollte man über alle Szenarien, im technisch machbaren Rahmen, möglichst neutrale Werte schaffen.

Genausowenig würde man einen CPU Test mit einer alten 8800GT durchführen, sondern wenn möglich mit einer übertakteten Titan RTX und niedrigen Auflösungen. Sonst käme nämlich raus, dass alle CPUs gleich schnell wären, weil die für heutige Verhältnisse schwache Grafikkarte einfach alle CPUs auf ein Niveau einbremst, was praktisch den Sinn dieses Tests obsolet macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex, gunmarine, Esenel und eine weitere Person
.Sentinel. schrieb:
Das interessiert sie spätestens dann, wenn sie hier im Forum auftauchen und dann, wenn die Spiele für die CPUs fordernder werden nachfragen, warum deren System immer lahmer wird, obwohl sie doch eine 3080 ihr Eigen nennen.

Das gabs ja noch nie, dass eine CPU irgendwann nicht mehr reicht :D
Sorry, aber diese Frage wurde (und wird) auch schon allseits und seit jeher beinahe täglich immer wieder gestellt, obwohl viele Jahre lang Intel in CBs Test-Rechner steckte. Und in ebenso schöner Regelmäßigkeit wird auf @HisN 's Erklärung verwiesen. limitiert-cpu_xyz_die-graka-abc Der Beitrag ist 10 Jahre alt :stacheln:

Also, das ändert sich mal überhaupt nicht, jetzt wo ein AMD in CBs Benchmark-Kiste werkelt.
 
Londo Mollari schrieb:
Also, das ändert sich mal überhaupt nicht, jetzt wo ein AMD in CBs Benchmark-Kiste werkelt.
Es ändert sich das, dass aufgrund einer gewissen Workload, die den AMD Systemen nicht sonderlich liegt, wozu unter Anderem viele Drawcalllastige oder auch viele High- FPS Szenarien fallen, einige Werte verfälscht werden.

Und das leider nicht mehr nur in irgendwelchen für viele als absurd erklärten Kombos wie 3080 in 1080p, sondern durch die höhere CPU- Last, die diese Karten erzeugen, eben auch auf 1440p und vielleicht sogar schon in Richtung 4K.

Und da sollte man sich die Frage stellen, ob man wirklich riskiert, dass man hier dann nur die 4K Tests tatsächlich für voll nehmen kann.

Da könnte man sich den Test in niedrigeren Auflösungen nämlich auch sparen...

Und Dein Verweis, dass man dann einen Userartikel zu Rate ziehen soll, weil man sich eben durch die Testmethodik nicht auf diesen verlassen kann, ist ja eher ein Armutszeugnis und bestätigt die Aussagen derjenigen nur, die es kritisch sehen, in GPU tests nicht die stärkst verfügbare Spiele- CPU mit allen Tunings einzusetzen, die man auftreiben kann.

Ich will es Dir mal näher erläutern:

Schau Dir das mal an:
1600114610930.png



1600114665192.png


1600114723561.png


Test 1 in 1080p besagt, dass eine 2080TI in diesem Spiel genauso schnell wäre wie die neue 3080.

Test 2 sagt das gleiche und trotz höherer Auflösung sinken die FPS nicht bzw. minimalst, wie kann das sein?

In Test 3 beginnt die Karte sich nun um 20% abzusetzen und alle Werte verschieben sich nach unten.

Test 1+2 sind hier unbrauchbar, weil dort irgendwas die Karte gebremst haben muss. Das System abseits der Grafikakrte kann offenbar nicht mehr als um die 130FPS liefern und ist somit zu schwach eine 3080 in 1080p und 1440p auszulasten.
Erst bei Test 3 könnte man sich sicher sein, dass die GPU der begrenzende Faktor ist.

Test 1+2 liefern also letztendlich überhaupt keine Information die GPU und deren Leistungsfähgikeit betreffend.
Weil ich dort letztenendes nur sehe, wo die Maximalzahl an FPS liegt, die die Plattform in diesem Titel generell an eine GPU schicken kann.

Somit ist dieser Test zur Ermittlung einer GPU Leistung einfach für die Tonne....
 
Zuletzt bearbeitet:
Glaubt ihr, jetzt wird plötzlich eine 3070 vor einer 3080 liegen oder so, weil AMD im Rechner steckt? Die absoluten Werte sind dabei doch fürn Poppes :p

.Sentinel. schrieb:
Und Dein Verweis, dass man dann einen Userartikel zu Rate ziehen soll, weil man sich eben durch die Testmethodik nicht auf diesen verlassen kann, ist ja eher ein Armutszeugnis

Da hast Du leider meine Aussage überhaupt nicht verstanden. Ich habe den Teil, den Du Dir da selbst hingedacht hast, mal unterstrichen :stacheln:

Aber ich sehe schon: Hier muss man sich für Dinge rechtfertigen, die gar nicht gesagt wurden. Das artet nur in 40 weiteren Seiten Sinnlosdebatte aus.
Die Welt geht unter, AMD steckt im Testrechner. Ihr müsst jetzt einfach stark sein :streicheln:
Tschö!
 
  • Gefällt mir
Reaktionen: Smartbomb und Kloin
Londo Mollari schrieb:
Das gabs ja noch nie, dass eine CPU irgendwann nicht mehr reicht :D
....
Also, das ändert sich mal überhaupt nicht, jetzt wo ein AMD in CBs Benchmark-Kiste werkelt.

Doch jetzt mit erscheinen der 3090 tun sie es nämlich, weil auch der 10900K anfangen kann zu limitieren. Nur das raffen hier manche einfach nicht oder wollen es nicht akzeptieren. DIE CPUs limitieren bereits eine 2080 TI in WQHD, wie willst du jetzt eine GPU (3090) testen, die in 4K evtl. die gleichen FPS liefert wie eine 2080ti in WQHD?!

Du hast möglicherweise in 4k GENAU das gleiche CPU Limit wie mit einer 2080 ti in WQHD.

Und ich habe es vorher schonmal geschrieben, wenn die Nvidia GPUS alle 2 Jahre +30-50% Leistung bringen, die CPUs aber von Intel nur 10%, irgendwann reichen selbst die Intel CPUs halt nicht mehr um die Nvidia GPUs zu befeuern.
 
  • Gefällt mir
Reaktionen: Esenel und .Sentinel.
Zurück
Oben