da!mon
Lt. Commander
- Registriert
- Juli 2006
- Beiträge
- 1.131
Was für ein grandioser Schwachsinn - ich könnte Regenbögen kotzen!latiose88 schrieb:in der sache hat somit Intel gnadenlos verloren. Land sieht Intel da nicht mehr. Ich rechne also dann von rund 30 % an Leistungs verlust.
Aus dem würde wohl selbst ein ryzen 9 3950x die aktuellen Intel cpus schlagen also heißt es 140 vs 180 Watt.
Nun solange Intel also da nicht gut dasteht werde ich über Intel noch nicht nachdenken. Intel kann aber durchaus wieder an chance gewinnen, muss sich halt nur mehr anstrengen. fürs erste bin ich halt AMD fan, das liegt an der guten leistung, mehr nicht.
Du scheinst KEINE Ahnung von Mikroprozessorarchitekturen zu haben, oder warum man nicht einfach nur Ampere & Volt in eine CPU pumpen kann, um mehr Takt und mehr IPC rauszuholen
Die Leistung einer μArchitektur skaliert nicht immer 1:1 mit Takt oder der zugeführten Leistung in Form von Spannung und Stromstärke - AMD ist König bei diesem Beispiel: je geringer die Leistungsaufnahme, desto effizienter werden die Ryzen. Heißt im Umkehrschluss: die IPC fallen nicht linear ab und die Effizienz nimmt mit steigendem Takt ab.
Das ist etwas, was sich in JEDER Mikroarchitektur finden lässt, sei es nun Grafikkarten, CPUs oder SoC's.
Warum war die Core2 μArch von Intel wohl seinerzeit so effizient?
Warum gibt es wohl eine Taktgrenze bei RDNA3? Schonmal eine Radeon 7000 mit mehr als 2500 MHz Werkstakt gesehen? Der Boost-Takt liegt maximal bei 2,8 GHz und das auch nur bei 2 Modellen mit selektierten Chips. Schonmal beobachtet, was passiert, wenn man RDNA 3 auf über 3 - 3,3 GHz prügelt?
AMD weiß, dass RDNA 3 oberhalb von 3 GHz scheiße ineffizent wird - die Frequency/Voltage-Curve sieht aus, als wäre das Ding ein Ford V8 von 1935: viel Drehmoment, aber wenn Leistung abgerufen wird, dann säuft das Ding wie ein bodenloses Fass...
Und jetzt zu behaupten, ein 14900K verliert ~30% Leistung, wenn man ihm ~25% Leistungsaufnahme klaut, entbehrt JEDER GRUNDLAGE, ZUMAL ES BEREITS GETESTET WURDE.
HÖRT AUF SCHWACHSINN ZU VERBREITEN, NUR WEIL AMD VIEL TOLLERER UND BUNTERER AUSSIEHT!
Intel verliert 8-9% Leistung bei 70 Watt weniger Leistungsaufnahme!
320 Watt oder 253 Watt für die gebotene Leistung, das macht zwar einen 14900K noch immer nicht zu einem Effizienzwunder, aber es ist definitiv nicht der Horror der hier gerne (auch Seitens der Redaktion) verbreitet wird.
8-9% Leistung, bei 21% weniger Leistungsaufnahme. Weeeeiiiiiiit weg von den 30% Leistungsverlust, die der Fachidiot @latiose88 in seiner Horrorvorstellung alptraumhaft zusammengezimmert hat.
Aber "Intel hat gnadenlos verloren" - klar, wenn Idioten ihre Meinung verbreiten dürfen und dabei Kaufempfehlungen nicht aufgrund von Tatsachen, sondern weil sie dumme fanbois sind, aussprechen, dann hat einer der beiden CPU Hersteller verloren. Aber nicht weil er schlechter wäre. Sondern weil der dumme fanboi ggf. einen unwissenden Bekannten hat, der sich auf die Meinung des fanboi verlässt. Egal ob Richtig oder Falsch.
Anstatt also sachlich fundierte Meinungen aufgrund von Fakten auf den Tisch zu legen, wird hier lieber von "30% Leistungsverlust" geschwafelt, weil es einfacher ist, das eigene Narrativ damit zu füttern: Hersteller X ist geiler als alle anderen - die sind immerhin noch für den kleinen Mann und sein Hobby!
Richtig ist: AMD ist es scheißegal, was ihr von ihnen haltet, solange sie Geld verdienen.
AMD lügt der Presse und den Endkunden sogar ins Gesicht, wenn das die Verkaufszahlen nach oben drückt: siehe Ankündigung der neuen AM4 Prozessoren auf der Computex dieses Jahr: angeblich sind die CPUs gleichauf mit allem, was Intel so bietet. Dumm nur, dass mit einer Radeon 6600 im GPU limit getestet wurde...
Wenn ich also davon ausgehe, dass alle Raptor Lake CPUs so gnadenlos von den Mainboardherstellern übertaktet werden, nur weil man "BIOS defaults" von Anus, GiggleBreit o.Ä. lädt, und wenn ich davon ausgehe, dass der 14600K selbst mit den offenen settings sehr vergleichbare 7900X Leistung bietet, dann steht Intel nicht so scheiße dar, wie im Forum von AMDbiased gerne behauptet wird.
Also meine abschließenden Frage:
Wann wird hier endlich verstanden, dass es keinen Sinn macht, einen Hersteller zu hypen bis Scooter kommt? Und alles, was davon abweicht ist pauschal und generell durch Falschaussagen belegte Scheiße?
Wann wird verstanden, dass es nur billige und gute Hardware geben kann, wenn ALLE Hersteller im Wettkampf sind und kein quasi-Monopol haben?
Edith schrieb: videocardz.com hat die HWLUXX ergbnisse gedeutet und auf englisch für die Masse übersetzt.
Fazit: wenn man bei Spielen im GPU limit mit entsprechend potenten Karten ist, dann ist der Leistungsverlust eher gleich Null.
Zuletzt bearbeitet: