Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsComet Lake-S: Intel gibt PL1/PL2-Werte für alle CPUs preis
Ich sehe das Problem nicht. Mit etwas Anpassung ist die Kiste kein brutaler Stromfresser.
Der Unterschied zum FX von AMD ist einfach, dass der einfach 0,0 konkurrenzfähig war und einfach nur langsam war und dazu noch heiß. Außerdem waren die Boards dafür ein Witz.
Der 10900K steht, egal wie man es dreht und wendet in Spielen an der Spitze. Er verbraucht viel, leistet aber auch viel. Somit ist der Vergleich absurd.
Man könnte auch sagen, dass es AMD nach mittlerweile 10 Jahren+ noch immer nicht geschafft hat, Intel vom Gaming Thron zu werfen.
Bulldozer v2 hatte auch eine recht gute Leistung, die vielfach mit den i7 gleich war. Aber die haben halt extrem viel Strom verbraucht. Am extremsten waren die FX 9xxx.
Blöd nur, dass sich da AMD und Intel nichts schenken. Ob man nun Z490 oder X570 kauft - “nur“ noch die aktuelle und kommende Generation werden unterstützt. Mir sind allerdings auch kaum Leute bekannt, die jede Generation eine neue CPU kaufen, also eher das Problem von einigen wenigen. Und selbst wenn jemand immer das neuste braucht weshalb auch immer, Mainboards lassen sich schon immer mit geringem Verlust in der Bucht verkaufen, sofern man nicht auf das 1000€ Board gesetzt hat.
Bist du sicher? Ich meine Dänemark hat höhere strompreise.
Aber wie auch immer. Der Nutzer sollte selbst entscheiden ob die CPUs saufen dürfen oder nicht. Für Leute mit kontinuierlich hohen Lasten über lange Zeiträume disqualifizieren sich ohnehin alle CPUs da die nach kurzer Zeit runter takten und wenn nicht saufen sie wie ein Threadripper (zumindest die großen Intels) nur das selbst der größte nichtmal ein Drittel der threads des zweitgrößten hat. Schon bitter (Vergleich rein auf Verbrauch bezogen)
Beim Gaming oder kurzen Lasten ist es hingegen egal, muss jeder selbst wissen aber bis auf wenige Ausnahmen kann man die aktuellen intels nicht empfehlen.
Im Wettbewerb zu AMD und einer Benutzungszeit von 4-6 Jahren einer Plattform jede Menge. GPUs, SSDs... PCIe 4.0 nicht zukunftssicher drin zu haben ist Irrsinn.
Ein X570 Board wird insgesamt mindestens drei Generationen Ryzen-CPUs unterstützen. Aktuell werden zwei unterstützt und dann kommt noch Support für die 4000er.
Auch mein X370 Board kann drei Generationen.
1. Nein.
2. Solche Leute kaufen aber auch weder Mainstream, noch HEDT
Selbst bei HEDT haben die wenigsten kontinuierliche Lasten, womit das Argument Stromverbrauch nur für einige wenige wirklich eines ist.
Wer kauft einen Prozessor für 4-stellige Beträge und jammert dann darüber, dass man ein paar Cent Stromkosten mehr im Monat hat? Das leuchtet mir selbst als Schwabe nicht ein.
Aber selbst bei den Mainstreamprozessoren ergibt es aufgrund des geringen Betrages einfach keinen Sinn. Da bringt einmal das Licht abends abschalten mehr.
08/15 Base schrieb:
Also kann man mit den Teilen nicht nur Kochen, sondern auch Backen.
Warum nimmst du das extrem?
Habe nie gesagt das avx temp und Verbrauch Anliegen müssen, würden.
Hier im forum hatte vor kurzem jemand über temp Probleme geklagt.
Wie sich herausstellte waren die Limits im BIOS, wie er es eigentlich wollte. Nicht gesetzt.
System hatte nicht den besten airflow und weiß Gott keinen top Kühler.
Mit den Limits war alles ok.
Also behaupten in Spielen (allgemein) würde niemals so hohe last Anliegen, das man ohne großen kühlaufwand so ein Biest locker flockig betreiben kann. Das ist halt gelogen.
Da auch hier ohne avx der Verbrauch hoch sein kann.
Bitte nicht zu viel immer rein interpretieren.
Ich wollte die pauschale Aussage anprangern. Logischerweise selbst auch keine pauschale Aussage tätigen. Wäre ja unlogisch!
@PPPP nur sind die halt auch langsam im Vergleich. Da braucht man nur den 3900X als Vergleich nehmen. Selbst wenn der 10 Kerner saufen darf als gäbs kein morgen kommt er nicht an den 3900X rann und nach 53 Sekunden gehen nochmal 20% Multicoreleistung verloren.
Also ist er nicht nur langsamer sondern auch durstiger und übrigens auch signifikant teurer.
Als wenn das nicht die Definition für ungeeignet in dem von mir gezeigten Szenario ist weiß ich auch nicht^^ die welt besteht nicht nur aus gamern und Intels Politik ist hier nicht Förderlich.
Was ich mich schon lange frage: "Wozu" gibt es eine TDP, wenn die dann um das 3,5-fache(!) überschritten wird???
Damit ist die TDP-Angabe eine Luft- oder Mondnummer ala Intel... Alter Schwede!!!
Die TDP soll ja zunächst mal nur eine Orientierung für die Kühlung sein. Wenn die CPU kurzzeitig ein Vielfaches zieht, dann geht das einfach in der Wärmekapazität des Kühlers unter und gut ist - solange der Mittelwert stimmt. Das ist dann ein kurzzeitiger Boost, um bspw. ein Programm schneller starten zu lassen und eigentlich ganz nett.
Aber: Wenn man diesen hohen Wert bis zu 56 Sekunden zulässt und dann auch ein Großteil der Mainboards den maximal erlaubten gleitenden Mittelwert einfach von Haus aus komplett ignorieren, dann ist das lediglich eine Farce und man könnte genauso gut schreiben: 250 Watt TDP.
Nur kann man mit > 200 Watt natürlich schlecht werben...
Blöd nur, dass sich da AMD und Intel nichts schenken. Ob man nun Z490 oder X570 kauft - “nur“ die aktuelle und kommende Generation werden unterstützt. Mir sind allerdings auch kaum Leute bekannt, die jede Generation eine neue CPU kaufen, also eher das Problem von einigen wenigen. Und selbst wenn jemand immer das neuste braucht weshalb auch immer, Mainboards lassen sich schon immer mit geringem Verlust in der Bucht verkaufen, sofern man nicht auf das 1000€ Board gesetzt hat.
Sorry, aber du biegst dir hier einiges zurecht. Wenn du sagst: ich will die letzten FPS um jeden Preis rausholen, dann is das doch okay. Aber dann komm nicht mit Wiederverkaufswert.
Bei AMD könnte man sich aber schon jetzt ein "zukunftsicheres" System kaufen, dass man in 2-3 Jahren für relativ wenig Geld auf nen aktuellen Zen 3 (womöglich sogar nen Refresh) aufrüsten kann.
Du hast geschrieben, es werden nur die aktuelle und kommende Generation unterstützt. Das ist falsch und auch nicht mißverständlich....
Aber wie über mir schon steht, Du biegst Dir halt dein Zeug zurecht, bis es Dir passt.
Wieso wird der Scheiß nicht entsprechend abgewertet in Tests 1sek oder 56 sek bei bis zum 3,5 fachen Verbrauch gegenüber offiziellen Angaben ?
Ich kann mich noch an die FX9590 Zeiten etc. erinnern von AMD wie darauf rum geritten wurde !
Bei INTEL ist es mal wieder kein Problem .
Diese Kritik ist auch an die CB Moderatoren/Tests gerichtet Punkt
Deshalb sollten CPUs im Benchmark mindestens 15 Minuten Rendering am Stück absolvieren. Dann verliert der 10900K bis zu 20% der Maximalleistung und hat sogar gegen einen 3700X Mühe.
Abgesehen davon wirkt es nur verzweifelt einer CPU mit nominal 65W kurz über 200W zu geben. Man bedenke die Implikationen für das Boarddesign und die Netzteile. Für OEMs blanker Horror!
Im Wettbewerb zu AMD und einer Benutzungszeit von 4-6 Jahren einer Plattform jede Menge. GPUs, SSDs... PCIe 4.0 nicht zukunftssicher drin zu haben ist Irrsinn.
Eine RTX 2080 Ti nutzt gerade einmal die Bandbreite von PCIe 2.0 x16 und du meinst, die nächsten 5 Jahre, wobei GPU-Leistung seit langem mehr oder weniger stagniert, wird jemand, der jetzt extra ein günstigeres H470 Mainboard kauft eine RTX 5080 Ti oder was auch immer kaufen? Und diese soll mehr als die doppelte Bandbreite der RTX 2080 Ti benötigen? So etwas gab es noch nie, deine Glaskugel würde ich mal einschicken, da stimmt etwas nicht.
Weshalb einem die Leistung einer PCIe 3.0 NVMe auf einmal nicht mehr reichen sollte für einen Mainstream Käufer darfst du uns auch gerne erklären
Für einen Enthusiasten der immer das beste benötigt. ja, der kauft Z490 oder X570 - für den Mainstream wird die Bandbreite von PCIe 3.0 noch lange reichen.
LamaMitHut schrieb:
Sorry, aber du biegst dir hier einiges zurecht. Wenn du sagst: ich will die letzten FPS um jeden Preis rausholen, dann is das doch okay. Aber dann komm nicht mit Wiederverkaufswert.
Bei AMD könnte man sich aber schon jetzt ein "zukunftsicheres" System kaufen, dass man in 2-3 Jahren für relativ wenig Geld auf nen aktuellen Zen 3 (womöglich sogar nen Refresh) aufrüsten kann.
Ich bin eher der Meinung du biegst dir hier einiges zurecht. Dass X570 die alten Ryzen auch unterstützt dürfte die wenigsten Käufer von heute interessieren.
Ob nun AMD oder Intel, bei beiden kannst du dir ein zukunftssicheres System ohne Anführungszeichen kaufen, dass man in „2-3 Jahren für wenig Geld“ auf die nachfolgende Generation aufrüsten kann.
Und weshalb sollte ich meine Mainboards nach wenigen Jahren auf dem Müll landen? Den Wiederverkaufswert willst du einfach ignorieren, da es gegen deine Argumente spricht? Selbstverständlich werden diese verkauft, ob nun AMD oder Intel, beides ist vorhanden.
Ergänzung ()
PS828 schrieb:
@PPPP nur sind die halt auch langsam im Vergleich. Da braucht man nur den 3900X als Vergleich nehmen. Selbst wenn der 10 Kerner saufen darf als gäbs kein morgen kommt er nicht an den 3900X rann und nach 53 Sekunden gehen nochmal 20% Multicoreleistung verloren.
Also ist er nicht nur langsamer sondern auch durstiger und übrigens auch signifikant teurer.
Als wenn das nicht die Definition für ungeeignet in dem von mir gezeigten Szenario ist weiß ich auch nicht^^ die welt besteht nicht nur aus gamern und Intels Politik ist hier nicht Förderlich.
Kommt darauf an, die wenigsten interessieren sich im Mainstream groß für Rendering und Cinebench. In der verbreitesten Form der Last bei diesen Prozessoren, Gaming, ist Intel selbst mit dem 10400F vor einem 3900X. Die Kerne sind schön und gut für die wenigen die es brauchen. Habe selbst einen 18-Kerner hier, für Spiele bringt mir das allerdings wenig. Da überholt mich vermutlich der 10600K.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Was ich mich schon lange frage: "Wozu" gibt es eine TDP, wenn die dann um das 3,5-fache(!) überschritten wird???
Damit ist die TDP-Angabe eine Luft- oder Mondnummer ala Intel... Alter Schwede!!!
Ist doch klar. Würde Intel den 10900K mit einer TDP von 200 Watt angeben, würden sie in der Luft zerrissen werden. Im Grunde sind die TDP Angaben von Intel zu den aktuellen CPUs Nebelkerzen allererster Güte. Läßt man den 10900K mal richtig von der Leine, ohne Limits im BIOS/UEFI, dann schluckt die CPU unter Volllast auf allen Kernen bis zu 364W ! Das muß man sich mal reinziehen. Und der unwissende User wundert sich dann, warum die Leistung nach kurzer Zeit einbricht, weil die Kühlung völlig überfordert ist. Da waren die FX seinerzeit ja noch nahezu bibeltreue Brüder gegen ....
Ich sehe das Problem nicht. Mit etwas Anpassung ist die Kiste kein brutaler Stromfresser.
Der Unterschied zum FX von AMD ist einfach, dass der einfach 0,0 konkurrenzfähig war und einfach nur langsam war und dazu noch heiß. Außerdem waren die Boards dafür ein Witz.
Der 10900K steht, egal wie man es dreht und wendet in Spielen an der Spitze. Er verbraucht viel, leistet aber auch viel. Somit ist der Vergleich absurd.
Man könnte auch sagen, dass es AMD nach mittlerweile 10 Jahren+ noch immer nicht geschafft hat, Intel vom Gaming Thron zu werfen.
Und bei Anwendungen fährt der Ryzen Kreise um Intel und das bei niedrigeren Verbrauch ohne das man ein neues Board kaufen muss. Fragt man sich was schlimmer ist, es hängen doch eh alle im GPU Limit.